Cómo llevar a cabo un proyecto de Edge Computing con éxito

A medida que el mercado pasa de las pruebas de concepto a los grandes despliegues multiaplicación que requieren escalabilidad, surgen diferentes alternativas tecnológicas en el Edge. En este artículo, exploramos las bases para el éxito de un proyecto de Edge Computing.

Tecnología

Edge Computing se está convirtiendo en una tecnología clave para la digitalización y la automatización de la industria. La capacidad de ejecutar aplicaciones digitales cerca de los procesos de producción permite múltiples casos de uso, como lasupervisión remota en tiempo real, el mantenimiento predictivo, la optimización del rendimiento de los procesos o la creación de nuevos modelos de negocio basados en el intercambio de información.

Sin embargo, las empresas siguen enfrentándose a algunos retos a la hora de introducir la computación de borde en sus arquitecturas de TI/OT.

A medida que el mercado pasa de las pruebas de concepto en el perímetro a grandes despliegues multiaplicación que requieren escalabilidad, surgen diferentes alternativas tecnológicas y es necesario tomar decisiones. El mundo industrial no es tolerante a fallos, y una mala decisión puede significar el fracaso del despliegue de esta tecnología.

En este artículo abordamos las consideraciones clave para que un proyecto de Edge Computing sea un éxito.

La base del éxito de un proyecto de Edge Computing

1. El Equipo y la creciente relevancia del CDO

El reciente estudio de Stratus sobre tendencias de Edge muestra una falta general de conocimiento del Edge, y más concretamente del Internet de las Cosas (IoT), como las mayores barreras para los despliegues corporativos de Edge Computing.

A menudo, muchas empresas eligen a sus CIOs o COOs para liderar las implantaciones de edge computing. En nuestra opinión, esto no es óptimo, ya que les desvía de sus objetivos más tradicionales, y carecen de experiencia en este ámbito. Lo ideal es que sea el Chief Data Officer (CDO) de la organización quien lidere este despliegue.

El Director de Datos es responsable de gestionar los datos como un activo en toda la empresa. Su principal objetivo es reducir los costes o aumentar los ingresos mediante el procesamiento avanzado o la comercialización de los datos procedentes de los procesos de producción. Este perfil, combina un conocimiento matemático-científico y un conocimiento empresarial y entiende los beneficios del Edge como la velocidad y escalabilidad en el procesamiento de datos, o la seguridad de los mismos. Pero lo que es mucho más importante, las operaciones en Edge repercuten directamente en los objetivos del CDO, por lo que su impulso es natural.

Por lo tanto, nuestra primera recomendación a cualquier empresa que desee implantar Edge Computing es que contrate a un CDO y a un equipo compuesto por científicos de datos, ingenieros de sistemas y expertos en ciberseguridad.

2. Las fases del Edge Computing, dividir para vencer

El despliegue, dirigido por el CDO, debe realizarse por fases en un proceso ágil pero estructurado. Cada fase tiene sus propios objetivos e indicadores de éxito. No hacerlo así, puede conducir a una espiral de errores interconectados que pueden resultar en un sistema inestable e ineficiente. Recomendamos 4 fases a la hora de abordar un proyecto de Edge Computing. La primera pregunta siempre está relacionada con el tiempo necesario. Con los equipos y productos adecuados, no debería llevar más de tres meses.

Fase 1: selección del caso de uso

El éxito de la implantación empieza por comprender exactamente cuál es su objetivo y qué espera conseguir. Antes de ponerse en contacto con el primer proveedor, instalar la primera pieza de equipo o escribir la primera línea de código, debe ser capaz de seleccionar una aplicación decisiva para encabezar su implantación de edge computing. Para ello, lo mejor es realizar un análisis para identificar aquellos procesos que cumplan el máximo número de las siguientes condiciones:

  1. No están optimizados, hay una gran carga de decisiones con poca información.
  2. Manejan una gran cantidad de datos
  3. La seguridad de los datos es importante
  4. Requieren una toma de decisiones rápida y casi en tiempo real
  5. Contienen activos distribuidos y su conectividad puede ser un reto.

Al revisar los procesos críticos de la empresa y clasificarlos en una matriz a lo largo de estos cinco ejes, podemos encontrar el o los procesos cuya puntuación más alta significa que es un candidato indiscutible para beneficiarse de la computación de borde.

Fase 2: recogida de datos

Una vez seleccionado el caso de uso, debe comenzar una fase de recogida, limpieza, etiquetado y almacenamiento de los datos que maneja el proceso. Para ello, se desplegarán los primeros Edge Nodes y mediante el uso de Software Connectors, podremos recoger datos de sensores, actuadores, equipos industriales y servidores internos o externos.

Los datos recogidos pueden limpiarse para eliminar incoherencias y etiquetarse para mejorar el tratamiento posterior. A veces, en esta fase puede incluirse un tratamiento sencillo de los datos, como la generación de alarmas para datos anómalos o la generación de informes indicadores sencillos sobre el proceso. No es el objetivo último de la implantación, pero ayudará a depurar posibles errores y a llegar a mejores conclusiones.

Fase 3: entrenamiento de los modelos

A partir de los datos que se van recopilando continuamente, comienza la fase de entrenamiento de los modelos. En esta fase hay aspectos clave como la estandarización, la correcta selección de herramientas o el diseño para la interoperabilidad de los modelos, que se describe perfectamente en el artículo de Harvard Business Review how to scale AI. En este proceso liderado por los científicos de datos, las plataformas de Edge Computing ayudan con las funcionalidades relacionadas con MLOps, que permiten generar, probar y ejecutar modelos de forma ágil y segura.

Fase 4: despliegue, funcionamiento y gobernanza de la IA distribuida

Una vez que los científicos de datos deciden que los modelos están suficientemente entrenados, entran en juego sistemas que, como el que proporciona Barbara , permiten enviar, iniciar, monitorizar, detener o actualizar aplicaciones y modelos a miles de Edge Nodes distribuidos. Dependiendo del volumen del despliegue, puede ser interesante realizar despliegues progresivos por ubicaciones hasta cubrir todo el territorio. Llegados a este punto, y una vez que las aplicaciones distribuidas estén controlando el proceso con los modelos entrenados, habremos alcanzado el máximo potencial del Edge Computing y podremos contrastar las mejoras obtenidas con las expectativas definidas en la primera fase del proceso.

Elegir el tipo adecuado de Edge Computing

Edge Computing es un tipo genérico de arquitectura. Cuando se aplica a un sector o proyecto concreto es importante conocer sus diferentes capas para utilizar la que mejor se adapte al proyecto.Cada vez es más común diferenciar entre dos tipos de Edge: Thick Edge y Thin Edge, que hace referencia al lugar donde se produce el procesamiento de los datos.

Borde delgado

Borde grueso

Es el procesamiento que tiene lugar en nodos, situados en la infraestructura del operador de la red troncal, pero cerca de los dispositivos de los clientes. Esto, en una red celular móvil, puede ser la antena a la que se conectan los dispositivos, o en una infraestructura de red fija puede ser un servidor situado en el centro de datos más cercano a nuestra ubicación.  

Se denomina "Thick" porque estos nodos suelen tener una gran capacidad de procesamiento, en primer lugar porque están situados en lugares donde el consumo de energía o el espacio no son un problema, y en segundo lugar porque al reclamar el operador de red tiene que ser capaz de procesar datos de múltiples clientes finales. Cuando los operadores de telecomunicaciones hablan de edge computing, se refieren a este tipo de casuística.  

Borde delgado

Implica que el procesamiento se realiza en nodos propiedad del cliente final, ubicados en su red local, y por tanto aún más cerca de sus dispositivos. El adjetivo "Thin" es apropiado en este caso, ya que estos nodos suelen tener una capacidad de procesamiento más limitada y consumen menos recursos que los dispositivos Thick Edge.

Aunque no es posible trazar una línea perfecta entre Thick Edge y Thin Edge, ya que hay casos en los que ambos modelos podrían funcionar, es interesante entender sus diferencias desde algunos puntos de vista para elegir el que mejor se adapte a nuestro proyecto:

  • Desde el punto de vista de la latencia, Thin Edge puede procesar los datos mucho más rápido que Thick Edge. La gran promesa de los operadores de red para eliminar la latencia son las redes 5G, pero incluso en el nuevo estándar es difícil bajar de latencias inferiores a 20ms en la práctica, cuando si el procesamiento se realiza en la red local podemos llegar a "tiempo casi real" con latencias cercanas a 1ms.
  • En términos de seguridad y privacidad, el Thin Edge permite preservar aún más la privacidad y la seguridad de los datos, ya que éstos no salen de la red local del cliente, como ocurre con el Thick Edge, que requiere llevar los datos un paso más allá hasta la infraestructura del operador local, lo que está fuera de nuestro control.
  • En términos de coste, un despliegue de Thin Edge suele requerir una mayor inversión inicial para la compra e instalación de nodos, mientras que Thick Edge, que implica nodos compartidos del operador de la red, suele pasar a estructuras "IaaS" (Infrastructure as a Service) con pago por uso que no requieren inversión inicial.
  • Por último, como se ha mencionado anteriormente, los nodos Thick Edge pueden procesar un mayor volumen de datos porque están dotados de más recursos que los nodos Thin Edge.

Esto hace que el Thin Edge sea mucho más adecuado para entornos que requieren latencias de respuesta rápidas, que quieren aislarse lo máximo posible del operador de red por motivos de seguridad o privacidad y se aplican presupuestos CAPEX como en la industria de la energía y el agua.

Sin embargo, el caso del Thick Edge es más adecuado para sistemas en los que la latencia no es absolutamente crítica, que requieren procesar flujos de datos de un ancho de banda importante y que tienden a operar con costes operativos (OPEX) más que con inversión. Esto sitúa a este tipo de tecnología cerca de las industrias más ligeras y cercanas al consumidor, como Fintech, Media o Retail.

Barbara, la plataforma cibersegura para la industria

Barbara,ayuda a las organizaciones a simplificar y acelerar sus despliegues Edge AI, construyendo, orquestando y manteniendo fácilmente aplicaciones basadas en contenedores o nativas a través de miles de nodos Edge distribuidos:

  • ‍Procesamiento de datos en tiempo real: Barbara permite el procesamiento de datos en tiempo real en el borde, lo que puede conducir a una mayor eficiencia operativa y ahorro de costes. Al procesar los datos en el perímetro, las organizaciones pueden reducir la cantidad de datos que deben transmitirse a la nube, lo que se traduce en tiempos de respuesta más rápidos y latencia reducida.
  • Escalabilidad mejorada: Barbara ofrece la posibilidad de aumentar o reducir la escala en función de las necesidades de la organización, lo que puede ser beneficioso para los procesos industriales que tienen niveles variables de demanda.
  • Mayor seguridad: Barbara ofrece sólidas funciones de seguridad para garantizar la protección de los datos en todo momento. Esto es especialmente importante para los procesos industriales en los que se maneja información delicada.
  • Flexibilidad: Barbara es una plataforma flexible que se puede personalizar para satisfacer las necesidades específicas de una organización. Esto permite a las organizaciones adaptar la plataforma a su caso de uso específico, lo que puede conducir a una mayor eficiencia y ahorro de costes.
  • Gestión remota: Barbara permite la gestión y el control remotos de los dispositivos de borde, las aplicaciones y los datos, lo que permite a las organizaciones gestionar su infraestructura desde una ubicación centralizada.
  • Integración: Barbara puede integrarse con los sistemas y plataformas existentes, lo que permite a las organizaciones aprovechar sus inversiones actuales y mejorar la eficiencia.