El flujo de trabajo de MLOps: Cómo encaja Barbara

La mayoría de las empresas industriales (hasta un 77% según un estudio del año pasado de IBM) están trabajando o planean trabajar con IA y Machine Learning como medio para optimizar sus operaciones o habilitar nuevas fuentes de ingresos. Y Machine Learning Operations (MLOps) se está convirtiendo en el paradigma como marco de trabajo para los equipos de Datos e Infraestructura implicados.

Tecnología
Escrito por:
Juan Pérez-Bedmar

La mayoría de las empresas industriales (hasta un 77% según un estudio del año pasado de IBM) están trabajando o planean trabajar con IA y Machine Learning como medio para optimizar sus operaciones o habilitar nuevas fuentes de ingresos. Y Machine Learning Operations (MLOps) se está convirtiendo en el paradigma como marco de trabajo para los equipos de Datos e Infraestructura implicados. 

Comprender el flujo de trabajo de MLOps es crucial para esas empresas; pero también para Barbara, que está a la vanguardia de Edge AI para aplicaciones industriales. Así que vamos a desglosar este flujo de trabajo y ver cómo Barbara se integra en cada fase.

El flujo de trabajo de MLOps: Una visión general

Que no cunda el pánico con la imagen de arriba. Es menos complejo de lo que puede parecer a primera vista (de hecho, se trata de una representación visual bastante buena dibujada por la AI Infrastructure Alliance). Imagina el flujo de trabajo como una sofisticada cadena de montaje de datos. Empieza con materias primas (datos) y termina con un producto acabado (un modelo de IA desplegado). Este flujo de trabajo se divide en varias etapas:

  1. Etapa de datos

En esta fase inicial, los datos se recopilan (ingestión), se limpian para eliminar incoherencias (limpieza), se comprueban para garantizar que cumplen determinados criterios (validación) y se transforman en un formato utilizable (transformación). En algunos casos, los datos se etiquetan para el aprendizaje supervisado (Etiquetar) o se mejoran con datos sintéticos para perfeccionar el entrenamiento del modelo (Generación/Aumentación de datos sintéticos).

  1. Fase de formación

Aquí es donde el modelo empieza a aprender. Comienza con experimentos (Experiment) para encontrar el mejor enfoque. A continuación, el modelo se entrena (Train) con los datos preparados y se ajusta (Tune) para perfeccionar su rendimiento.

  1. Fase de despliegue

Una vez entrenado el modelo, se despliega (Deploy) en un entorno de producción donde realiza predicciones o inferencias (Prediction/Inference). Los resultados de estas predicciones se registran (Log) para su posterior análisis.

  1. Control y mantenimiento

La etapa final y continua consiste en supervisar tanto la fase de formación como la de despliegue para asegurarse de que todo funciona correctamente.

Este flujo de trabajo depende de una base sólida, que incluye la infraestructura de datos (AI/ML Data Foundation) y las herramientas para realizar un seguimiento de todos los cambios (Versioning/Data Lake con Lineage Tracking).

El papel de Barbara en el flujo de trabajo de ML

Esta imagen de arriba visualiza en qué punto del flujo de trabajo la plataforma Barbara's Edge AI desempeña un papel importante (estamos utilizando de nuevo el dibujo realizado por la AI Infrastructure Alliance, como referencia). Repasemos estas etapas:

  1. Ingesta de datos

La plataforma Barbara incluye un montón de conectores industriales, data ingesters, bases de datos... y otras herramientas que básicamente están orientadas a ayudar a los usuarios en el proceso de ingesta de datos en entornos industriales. Todas estas aplicaciones y herramientas están disponibles a través de Barbara Marketplace para todos los usuarios de la plataforma.

  1. Despliegue y servicio

Barbara brilla aquí ayudando a las empresas a desplegar sus modelos de IA sin fisuras en el borde. Esto significa que en lugar de ejecutarse en servidores remotos, los modelos operan directamente en el hardware local, más cerca de donde se recogen los datos. Esto reduce la latencia y el volumen de datos que viajan y se procesan en la nube (una operación no muy barata...) y aumenta la eficacia de las predicciones en tiempo real, al tiempo que evita la dependencia constante de una conexión de red.

La plataforma Barbara es principalmente un orquestador de Edge AI y Edge Apps. Facilita a los equipos de datos el despliegue y la ejecución de sus modelos en nodos periféricos en comparación con la nube.

  1. Supervisión

La plataforma Barbara supervisa el ciclo de vida de cualquier carga de trabajo que se despliegue y ejecute en el perímetro, incluidos los modelos de IA, para que los usuarios puedan controlar los modelos desplegados. Esto es vital para mantener la precisión y fiabilidad de las aplicaciones de IA en entornos industriales.

Y no sólo los modelos, sino también los nodos de borde que les sirven. Barbara incluye varios mecanismos y funciones para supervisar y controlar los nodos que contienen los modelos

  1. Registro

Aunque Barbara participa parcialmente en el proceso de registro, su papel es crucial. El registro consiste en llevar un registro del rendimiento del modelo y de las predicciones que realiza. Estos datos tienen un valor incalculable para comprender cómo se comporta el modelo a lo largo del tiempo y pueden aportar ideas sobre cómo mejorarlo.

Por qué cada fase es importante

Cada etapa del flujo de trabajo de MLOps desempeña un papel fundamental en el desarrollo de un modelo de IA eficaz.

Ingestión y preparación de datos: Como dice el refrán, "basura entra, basura sale". Sin datos limpios y bien organizados, ni siquiera los mejores algoritmos servirán de mucho.

La formación: Aquí es donde se produce la magia, convirtiendo los datos en un modelo capaz de aprender y adaptarse. Es como enseñar a un niño a reconocer formas y colores: lleva tiempo y paciencia.

Despliegue: Implantar un modelo es como enviar a un niño al colegio: es el momento de demostrar lo que se ha aprendido. Para la industria, aquí es donde se obtiene el valor real, ya que los modelos empiezan a influir en los procesos empresariales.

Supervisión y registro: Incluso después de la implantación, el trabajo no ha terminado. La supervisión es como un boletín de notas, que muestra el rendimiento del modelo en el mundo real, y el registro es el diario, que deja constancia de lo que ha ocurrido.

En esencia, cada fase del flujo de trabajo de ML consiste en construir un sistema de IA fiable y eficiente. 

Conclusión

Para las empresas industriales que trabajan con IA, el flujo de trabajo MLOps es clave para entender todas sus necesidades y qué herramientas deben tener para poner en producción sus casos de uso. 

Barbara, como plataforma Edge AI, se integra plenamente en este flujo de trabajo en las etapas que implican directamente al edge. Con una potente UX, la plataforma Barbara se centra en empoderar a los equipos de Datos e Infraestructura en sus tareas de despliegue, ejecución y monitorización de sus modelos en el edge, todo ello sin comprometer el rendimiento, la seguridad o la eficiencia.