La adopción de arquitecturas distribuidas está acelerando el desarrollo de nuevas capacidades en la industria, pero también está ejerciendo una presión sin precedentes sobre la infraestructura tecnológica. La computación periférica está emergiendo como un elemento clave para acercar los datos y el procesamiento al lugar donde realmente se llevan a cabo las operaciones, pero su implementación a gran escala sigue planteando retos técnicos, organizativos y estratégicos. El 24 de septiembre, CIONET España organizó una mesa redonda en colaboración con SUSE bajo el título «Thinking on the Edge: Arquitecturas al límite», en la que exploramos los retos de la interoperabilidad y cómo acelerar la adopción e integración de nuevas cargas de trabajo.
El Edge Computing se está consolidando como un catalizador clave en la evolución hacia arquitecturas distribuidas, especialmente en sectores industriales y de infraestructuras críticas. Su fuerza reside en que cambia el lugar donde se procesa y gestiona la información: del centro de datos al propio terreno donde se generan los datos.
Hasta hace poco, la lógica predominante era llevar todo a la nube. Sin embargo, esta estrategia empieza a mostrar sus límites: latencias inasumibles para ciertos procesos, costes crecientes de almacenamiento y transferencia de datos, dependencia excesiva de conectividad estable y, en algunos casos, la imposibilidad de cumplir requisitos regulatorios o de soberanía. Ahí es donde el Edge introduce un giro: no se trata de sustituir la nube, sino de complementarla con una capa distribuida más cercana a la operación.
Esto está teniendo varios efectos transformadores:
En definitiva, el Edge Computing no es solo una capa adicional de infraestructura, sino un cambio de paradigma. Introduce la lógica de que el dato y el cómputo deben estar donde más sentido tiene para el negocio, y eso obliga a rediseñar arquitecturas, procesos y modelos de gobierno de extremo a extremo.
El tema de los SCADA (Supervisory Control and Data Acquisition) fue uno de los más jugosos en la mesa redonda porque refleja muy bien cómo el Edge Computing y la digitalización están redefiniendo la manera de controlar y operar infraestructuras críticas.
Durante décadas, los SCADA tradicionales han sido la espina dorsal de la automatización industrial: sistemas propietarios, cerrados y muy dependientes de fabricantes concretos. Esa dependencia tiene un precio: falta de flexibilidad, costes crecientes por licencias o actualizaciones, y poca capacidad de adaptación a las necesidades específicas de cada planta o sector.
Ahora vemos un cambio de enfoque:
En resumen, los SCADA de nueva generación ya no son meras consolas de supervisión, sino plataformas estratégicas que combinan control local, resiliencia, apertura tecnológica y capacidad de integrarse en ecosistemas distribuidos. Su redefinición marca un antes y un después: el control pasa de ser un sistema cerrado y dependiente a un entorno flexible, abierto y gobernado por el propio negocio.
La interoperabilidad, el open source y la soberanía digital forman un triángulo estratégico que está marcando la agenda tecnológica de muchas organizaciones. Y en el contexto del Edge Computing, estos tres conceptos se vuelven aún más relevantes.
En entornos industriales conviven equipos y sistemas de múltiples generaciones, fabricantes y protocolos. Esa diversidad genera una enorme fricción: integrar, actualizar y mantener coherencia entre todos ellos es costoso y, a menudo, poco eficiente. El Edge, lejos de simplificar, multiplica el reto: más nodos, más dispositivos, más proveedores. De ahí que la interoperabilidad no se pueda dejar para el final; debe diseñarse desde el principio como requisito de arquitectura. Sin interoperabilidad, el despliegue de Edge no escala y la eficiencia se pierde en parches y “workarounds”.
Aquí entra en juego el open source, no solo como mecanismo para reducir costes de licencias, sino como estrategia para ganar flexibilidad y evitar el vendor lock-in. Plataformas abiertas permiten a las organizaciones:
En el caso del Edge, el open source está siendo especialmente relevante en áreas como la orquestación de contenedores, la observabilidad o los propios SCADA de nueva generación, donde muchas empresas están desarrollando soluciones internas apoyadas en librerías y componentes abiertos.
El tercer pilar es la soberanía digital, que está ganando fuerza en Europa ante un escenario geopolítico incierto. El debate ya no es técnico, sino estratégico: ¿dónde se procesan y almacenan los datos críticos?, ¿quién tiene jurisdicción sobre ellos?, ¿qué ocurre si mañana cambia el marco regulatorio o la política comercial de un proveedor?
El Edge refuerza esta conversación porque permite mantener datos y procesos cerca del lugar donde se generan, sin depender siempre de nubes públicas globales. Esto no significa renunciar a la nube, sino tener la capacidad de elegir: decidir qué cargas deben permanecer locales, cuáles pueden ir a cloud y bajo qué condiciones.
En este punto, se habló de la posible creación de una nube europea como vía para asegurar un marco de confianza común. Sin embargo, más allá de proyectos políticos, las organizaciones ya están tomando decisiones prácticas: apostar por arquitecturas híbridas, estándares abiertos y modelos interoperables que les permitan mover cargas de forma ágil y mantener control sobre sus datos.
El bloque de seguridad, resiliencia y gobierno del dato es quizá el más crítico cuando hablamos de Edge Computing y arquitecturas distribuidas. Son tres piezas que se retroalimentan: sin seguridad, no hay confianza; sin resiliencia, no hay continuidad de negocio; sin gobierno del dato, la información pierde valor o se convierte en un riesgo.
El Edge multiplica los puntos de entrada: sensores, gateways, dispositivos IoT, SCADA locales, bases de datos distribuidas… Cada nuevo nodo es una potencial vulnerabilidad. El reto ya no es blindar un único centro de datos, sino proteger un ecosistema heterogéneo y distribuido, muchas veces en entornos físicos difíciles de controlar.
Aquí entran en juego estrategias como:
Si algo quedó claro en la mesa redonda es que la continuidad operativa es la prioridad absoluta. La gran pregunta no es “¿qué pasa si todo funciona bien?”, sino “¿qué pasa si la red cae, si un nodo falla, si un proveedor se desconecta?”. En este sentido, el Edge aporta ventajas claras:
La resiliencia, por tanto, no es solo redundancia de hardware, sino un diseño consciente de la autonomía de cada nodo.
En una arquitectura distribuida, los datos ya no se concentran en un único repositorio, sino que fluyen entre edge, core y cloud. Esto introduce preguntas clave: ¿cuál es la versión válida del dato?, ¿qué jurisdicción aplica según dónde se almacene?, ¿cómo se asegura la calidad y el linaje en un entorno con múltiples copias locales?
Los elementos centrales aquí son:
La conversación en la mesa redonda dejó una idea clara: el Edge Computing ya no es un experimento ni un “nice to have”, sino un punto de inflexión en la manera en que las organizaciones diseñan y operan su infraestructura. Su adopción responde a necesidades muy concretas —latencia, costes, soberanía del dato, resiliencia— y obliga a replantear arquitecturas, procesos y modelos de gobierno de extremo a extremo.
Los SCADA de nueva generación, el impulso del open source para escapar de dependencias, la búsqueda de interoperabilidad real en entornos industriales complejos o la prioridad por garantizar continuidad operativa bajo cualquier circunstancia son señales de que el mercado ha entrado en una nueva fase. Una fase donde la tecnología no se entiende como piezas aisladas, sino como un ecosistema distribuido en el que la clave ya no es solo desplegar, sino orquestar, monitorizar y gobernar.
En este contexto, el rol de SUSE resulta decisivo. Su apuesta por plataformas abiertas, seguras y flexibles encaja de lleno con las prioridades que se discutieron:
Más que un proveedor, SUSE se posiciona como un habilitador de soberanía tecnológica, ayudando a las organizaciones a diseñar arquitecturas que no solo resuelvan los retos actuales, sino que las preparen para un futuro donde la complejidad y la distribución serán la norma.