Este artículo está basado en las intervenciones que tuvieron lugar durante el último encuentro del Programa Quest, que se llevó a cabo el pasado miércoles 25 de octubre de 2023 en Madrid. Durante este encuentro, con la Data como temática, más de 100 líderes digitales tuvieron la oportunidad de explorar cómo los datos están impulsando la innovación, la toma de decisiones y la transformación empresarial en la era digital a través de los casos de éxito más sobresalientes y los conocimientos compartidos por empresas y expertos de diversos sectores. El encuentro se desarrolló en el Auditorio de la Torre Cepsa, gracias a la colaboración imprescindible de Cepsa como anfitrión y co-organizador. 

 

cepsa7p3a2032

 

Delivering value in the Data Economy

 

En la era actual, la economía de datos se ha convertido en un elemento central para la prosperidad de las empresas y organizaciones en todo el mundo. Vivimos en un momento en el que la información fluye a una velocidad vertiginosa, donde los datos se generan a cada instante y en una cantidad sin precedentes. Esta avalancha de datos puede ser abrumadora, pero también representa una oportunidad única para aquellas empresas que sean capaces de aprovecharla de manera efectiva.

La habilidad de entregar valor en la economía de datos se ha vuelto una prioridad fundamental. No se trata de acumular montañas de información; sino de la capacidad de extraer valor real de cada dato y convertirlos en insights accionables y resultados tangibles. Esta transformación de los datos se ha vuelto esencial para la toma de decisiones estratégicas en un mundo hiperconectado. La tecnología desempeña un papel clave en esta revolución, permitiendo la recopilación, análisis y uso inteligente de datos. La intersección de tecnologías como la inteligencia artificial, el aprendizaje automático, el análisis de datos masivos y la ciberseguridad es fundamental para permitir a las organizaciones navegar por el complejo panorama de la economía de datos.

 

cepsa_cionet082cepsa_cionet073

cepsa7p3a2621

 

Green AI: Estrategia de IA para impulsar la transición energética

La misión de Digital en Cepsa es muy clara. Quieren ser impulsores del crecimiento de los negocios y funcionar como un acelerador de la transición energética. ¿Cómo quieren lograr esto? Empoderando a los empleados para crear valor y a los clientes con soluciones que impulsen su transición energética y la descarbonización. Jesús Oliva, Head of Data Science & AI en Cepsa, fue el encargado de transmitirnos este mensaje. El lema “nos importan las personas” es uno de los valores de Cepsa y está muy presente en la estrategia de toda la organización. 

En Cepsa articulan su estrategia en cuatro pilares fundamentales:

1. Personas

Tienen muy claro que diseñan por y para las personas. Por personas ya que tienen un conjunto de equipos que trabajan y colaboran conjuntamente y para personas, con mucho foco en la adopción y en cómo se van a usar las diferentes soluciones. El objetivo es facilitar al usuario el uso de las mismas. El foco está puesto en la usabilidad, en la explicabilidad de sus algoritmos. Sin entrar en detalles técnicos, la gente tiene que tener una idea de cómo funcionan. 

En este sentido, trabajan muy de cerca la Gestión del Cambio, la capacitación y el cambio cultural tan necesario hoy en día. Trabajan con la CDX, el programa de capacitación experiencial que tienen en Digital, por donde han pasado ya más de 300 empleados en el área de Inteligencia Artificial. Además, este año han lanzado también las Comunidades, que son grupos divididos por niveles técnicos en los que se impulsa el conocimiento en diversas áreas tecnológicas. 

2. Ética y sostenibilidad

Teniendo en cuenta que a finales de este año o principios de 2024, se aprobará la regulación de la Unión Europea, en Cepsa quieren cumplir con su deber desde un punto de vista ético y un uso responsable. 

Por ello, en el ámbito de la ética y del gobierno de la IA han creado un grupo de trabajo transversal, involucrando a diversas áreas, para implementar una serie de políticas, procedimientos y guías de uso de los datos y la Inteligencia Artificial.

En cuanto a sostenibilidad, han desarrollado dos conceptos:

  • Green by Digital: consiste en construir soluciones digitales que apoyen la sostenibilidad incorporando indicadores que ayuden a priorizar aquellas iniciativas  que impulsen la transición energética y la descarbonización.
  • Green in Digital: consiste en construir soluciones que sean sostenibles desde su fase de diseño y desarrollo, definiendo una serie de estándares y herramientas que nos permitan medir y ser neutros en carbono.

Optimización de procesos industriales

Dos de las aplicaciones de optimización de procesos industriales que ofreció Jesús durante su ponencia son las siguientes: 

  • Proyecto SUICAT: a través del Proyecto SUICAT realizan seguimiento y monitorización de las unidades catalíticas de los Energy Parks de Cepsa. De esta forma son capaces de predecir la duración del ciclo de vida del catalizador, de manera que optimizan el rendimiento de cada planta aportando valor. Además, optimizar la vida de los catalizadores tiene un impacto colateral en el medio ambiente. 
  • IA Visbreaker: han desarrollado distintos modelos de maxi-learning usando la información de los crudos que se descargan de los Energy Parks, pasando por todas las variables del proceso que están involucradas. con el objetivo de modelar diversas características. De esta manera, optimizar el rendimiento de la planta, pero a la vez, siendo sostenibles.

En Digital son conscientes de que los algoritmos, las soluciones de IA, los datos que se almacenan en la nube tienen costes energéticos. Por ello, están centrados en diseñar, desarrollar y monitorizar sus soluciones. Entre el 10 y el 15% del consumo de los centros de datos a nivel mundial está causado por el almacenamiento de datos. Como consecuencia de este dato surge Data Value Engine. El hecho de que la nube proporciona un espacio de almacenamiento prácticamente ilimitado, conlleva a la acumulación innecesaria de ciertos datos que no aportan valor. Data Value Engine trata de implementar un motor de cálculo y monitorización del valor real aportado por los datos y establece qué datos están siendo utilizados en qué soluciones y de cuáles se puede prescindir.

3. Innovación

En un ámbito que se mueve tan rápido como la Inteligencia Artificial, es esencial tener espacio para experimentar y poder ofrecer innovación de forma proactiva.

(AI)² Lab (Artificial Intelligence Applied Innovation)

En este laboratorio han trabajado en IA Generativa, en Deep Learning y en Digital Twin. Uno de los ejemplos de lo que han hecho en Cepsa con IA Generativa es el Safety Bot, un asistente de seguridad que permite interactuar en modo chat mediante un algoritmo para facilitar procedimientos a los empleados, les recuerda accidentes que hayan ocurrido y las condiciones meteorológicas. 

4. Tecnología

 

Plataforma de Descarbonización

La tecnología es una parte muy importante de la estrategia de Cepsa. En este aspecto, están trabajando en su plataforma de Inteligencia Artificial. Siguiendo con el mantra de la sostenibilidad, presentan su estructura como la de un árbol. Los productos y servicios de IA que ofrecen a sus empleados y clientes son los frutos. Sin embargo, para obtener esos frutos, hay toda una plataforma que realiza esas soluciones y las gobierna. 

El nivel IA Studios garantiza que todas las soluciones que se desarrollan en la plataforma cumplan con las condiciones necesarias. Por debajo, están los Core Engines. La idea es que estos motores han de permitir acelerar el desarrollo de cualquier solución y aprovechar las sinergias que surgen entre los desarrollos que se pueden llevar a cabo incluso en distintas unidades de negocio. Hay una capa externa, considerada el abono del árbol, que es el Data Layer. Las raíces son los datos y la capa semántica que está por encima, nutre de datos a todo el árbol. Todo esto solo funciona si se dan las condiciones necesarias. Para ello, tiene que haber un Gobierno del Dato. 

 

“Lo fundamental no es tanto el reto tecnológico, sino las personas y como estas perciben las tecnologías, las adoptan y las incorporan en su día a día”

 

 

Data Strategy Project: evolución de la arquitectura de datos hacia el concepto de Data Mesh

ING se crea en 1999. Desde ese año se hacen con el título de primer banco digital de España. Víctor Cano, Chief Architect en ING, fue el encargado de explicar la larga trayectoria que posee ING en el uso de los datos. Desde que comenzaron su andadura digital han utilizando los datos para acompañar y ayudar a los clientes. Ocupan la sexta posición por número de clientes en banca de particulares de España y quinta por número de cuentas. Además, llevan 16 años consecutivos siendo el número uno en cuanto a satisfacción de cliente, liderando en NPS. 

Evolución constante de sus plataformas de datos

Hace 16 años, empezaron con un sistema Data Warehouse, que permitía tener muchos datos disponibles para analizar, ofrecía una visión unificada de los datos y posibilitaba la personalización. Un sistema que se presentó como pionero en su momento, unos años después se presentaba como un sistema no tan flexible, difícil de escalar y complejo de mantener. Por eso, hace 8 años decidieron complementar el Data Warehouse con un nuevo sistema, el Data Lake; con el objetivo de contribuir a esa plataforma de datos que ya poseían. Este sistema les permitía tratar no solo los datos estructurados de los clientes, sino que también permitía escalar y tratar datos no estructurados. A la vez, tenían una mayor capacidad de procesamiento, capacidades de real-time y modelos de analítica avanzada. Sin embargo, debido al rápido avance de la tecnología, Data Lake, seguía teniendo una flexibilidad limitada y mantenimiento centralizado.

Nueva estrategia basada en Data Mesh

La estrategia de datos basada en Data Mesh se basa en 4 pilares fundamentales:

  • Visión de producto
  • Extensión de la forma de trabajar
  • Plataforma tecnológica
  • Nueva forma de pensar sobre datos

Los datos no son una serie de archivos o de tablas, sino que son tratados como un verdadero producto, cuidándolos, entendiendo la calidad que tienen, cuál es el formato para exponer esos datos y teniendo en cuenta el SDA. Para vender los datos internamente, hay que garantizar un control de los mismos. Víctor afirmaba que son necesarias personas específicas con conocimiento de negocio y de datos para garantizar un buen tratamiento de los mismos. 

Por este motivo, en ING tienen la figura de Data Product Owner, aquellos responsables de vigilar cómo están los datos, productizarlos y ofrecerlos dentro de la compañía. También son los encargados de retirar los datos que no se usan. De esta forma la organización gana en sostenibilidad y ahorra en costes. Esto es un primer paso en el cambio de mentalidad relativo a los datos. Su objetivo final es extender la forma en la que trabajan en ING. 
En ING llevan años trabajando en un modelo Full Agile. Las tribus son responsables end to end de un producto o servicio bancario. Sin embargo, los datos son el único punto que no entra dentro de este formato end to end. Existe un único equipo centrado en ellos. En lo que están trabajando ahora es en la adopción por parte de las tribus de la responsabilidad sobre los datos. De esta forma serán capaces de garantizar que todos los productos están basados en datos y que los entienden a la velocidad que necesitan. 

Primeros pasos sólidos hacia los Data Products 

Ahora mismo están centrados en los Data Product Beta, que se encuentran en la plataforma tecnológica actual, aunque a nivel de arquitectura funcional, cumplen con todos los criterios necesarios. Para que los Data Product sean un producto, tienen que garantizar estabilidad a su consumidor interno. 
La futura migración tecnológica quieren que sea transparente. El objetivo es quitar la plataforma técnica que utilizan ahora mismo, reemplazarla por la nueva y que los usuarios no noten la diferencia, pero teniendo un mayor rendimiento. Para poder llevar a cabo todo este proceso, es esencial un buen Gobierno del Dato, el cual en ING está todavía centralizado. 

¿Cuáles son los siguientes pasos?

  • Self-service Data Platform: es la capa fundacional. Quieren una plataforma flexible, escalable y automatizable. El objetivo es que cuando una tribu crea un nuevo Data Product, sean capaces de crear uno adaptado a sus necesidades. Actualmente en minutos son capaces de montar un entorno completamente nuevo, lanzarlo y ponerlo a disposición de los equipos. Todo ello apoyados en nube pública para incorporar los servicios de datos.
  • Public Cloud
  • Data Product Framework
  • Marketplace & Federated Governance. Quieren una visión holística de todos sus datos, pero también quieren que cada Data Owner sea capaz de gestionar sus datos. La federación de ese gobierno es básica desde un punto de vista organizativo. Si queremos que los datos sean un producto, tenemos que ser capaces de ofrecerlo de forma interna y, por tanto, tener ese marketplace.
  • Distributed ownership


Sus objetivos

  • Incrementar el valor a clientes a través de datos
  • Mejorar el uso de los datos
  • Poner los datos a disposición de todos y acelerar la entrega de nuevas capacidades
  • Incrementar la flexibilidad y escalabilidad
  • Promover el uso de ML y AI
  • Personalizar aún más el servicio a los clientes

 

“Si no conocemos a nuestros clientes, si no conocemos qué necesitan, no vamos a darles la experiencia que podemos ofrecerles”

 

 

Project Dashboard: Análisis 360º de la obra a través de Data Storytelling

Acciona siempre ha sido pionera y ha estado enfocada en el bienestar social y en la sostenibilidad. Ernesto Díaz Bernardo, Director de Sistemas y Proyectos de Transformación de ACCIONA Infraestructuras, fue el encargado de explicar el proceso de adopción del Project Dashboard. Acciona se encuentra en un proceso de expansión internacional, con proyectos en más de 25 países; y de adquisición de empresas locales con sus sinergias en gestión, procesos de operación y administración, lo que implica la gestión de múltiples sistemas y orígenes de la información, así como un reporting heterogéneo. Con una cantidad tan grande de información, el CEO transmite la necesidad de tener un cuadro de mando ejecutivo con el que poder tener un control de la situación de cada proyecto con los siguientes objetivos: 

  • Diseñar un informe ejecutivo y gráfico con visión 360 por áreas funcionales, para la gestión y el control mensual de los principales proyectos de la División de Infraestructuras.
  • Homogeneizar bajo un modelo común en formatos y contenido para todos los negocios de la División.
  • Mejorar la calidad y el flujo de la información para facilitar la toma de decisiones. 

Principales retos
El principal reto a nivel de infraestructura es que tenían 4 grandes Negocios involucrados (Construcción, Industrial, Agua, Australia) y 11 áreas funcionales de Gestión que se ven reflejadas posteriormente en los proyectos. Además, tenían los siguientes retos:

  • Mapas de Sistemas heterogéneos
  • Interlocutores múltiples
  • Gestión del Cambio
  • Alineamiento a todos los niveles: ejecutivo y operativo
  • Madurez tecnológica de las diferentes áreas desde el punto de vista de sistemas y datos
  • Arquitectura Técnica de la solución
  • Flujos de aprobación
  • Visibilidad y democratización del dato a través de un dashboard ejecutivo y operativo, con una visión 360º tanto a nivel conocimiento como a nivel jerárquico

Visibilidad del dato

Sobre esta estructura, con la solución han conseguido tener una visión total sobre el cuadro de mando que han desarrollado, siempre bajo cada área de influencia. Al mismo tiempo han sido capaces de dar visibilidad, dentro de cada nivel de la estructura jerárquica, a cuadros de mando específicos para cada área, ofreciendo una gran flexibilidad y escalabilidad. 


¿Qué objetivos se marcaron para la ejecución del proyecto?

Daniel Díez, Director de Data & AI en NEORIS, fue el encargado de explicar todo el proceso de creación de la solución. Cuando en NEORIS empezaron a conceptualizar la iniciativa con Acciona, lo primero que tuvieron en cuenta es que se trataba de un proyecto transformacional, partiendo de la base de que el core de Acciona es el proyecto, y todos los proyectos de la organización iban a pasar por la solución. El Project Dashboard iba a manejar 3000 millones de dólares dentro de la solución. Se centraron desde el principio en garantizar el uso del cuadro de mando, y en que los usuarios lo fueran a utilizar. Para ello, cubrieron los siguientes aspectos:

  • Contar una historia de negocio por encima de los datos
  • Centrado en el valor
  • Arquitectura de datos escalable y centrada en la reutilización
  • Garantizar la calidad de los datos
  • Proceso de aprobaciones ágil
  • Garantizar una buena gestión del cambio
  • Diseño atractivo

¿Qué metodología utilizaron?

Metodología tradicional sustentada en un enfoque de Data Storytelling impulsado a través de herramientas de Design Thinking, que consiste en centrarse en el objetivo estratégico de los procesos en vez de en medir todos los KPI. Para ello entendieron los procesos desde el principio, comprendiendo la problemática del usuario y plasmando diseños de alta fidelidad para garantizar que el usuario de negocio se sintiera propietario de la solución. Además, toda la Gestión del Cambio se centró en el valor y en el feedback continuo. 

 

cepsa_cionet108cepsa_cionet114

 

La solución

Estructura de la solución

  • Nivel 1: Enfocado en la “Localización del proyecto". Gestionado por roles y permisos de acuerdo a la estructura jerárquica, para el acceso a la información confidencial con seguridad. 
  • Nivel 2: Información ejecutiva y visión 360 global del estado del proyecto para detectar posibles inconsistencias en los procesos y poder buscar soluciones en las personas bajo cada grado de responsabilidad. Esta visión ejecutiva va acompañada de una ficha de proyecto que resalta los datos relevantes, las principales problemáticas, riesgos y oportunidades. 
  • Nivel 3: Cuadros de mando por área con los principales indicadores de cada función, donde se visualizan los principales KPI de cada función. 

Flujo de aprobación

Uno de los aspectos clave fue la implementación de un flujo de aprobación que fomentara la mejora continua en la calidad del dato desde los proyectos y estableciera puntos de control por parte de los supervisores de los proyectos y a las áreas de gestión. Estos puntos de control motivan el uso de la herramienta, ya que por muy automatizada y digitalizada que sea la herramienta, las personas tienden a no prestarle la suficiente atención. Herramientas de Microsoft como Power Automate les han servido para desencadenar los flujos de mails de aprobación o rechazo. 

Arquitectura del dato

La complejidad del proyecto estuvo en la trazabilidad de los sistemas y en la parte de la escalabilidad desde el punto de vista de las obras y la productivización. Fue necesario nivelar el nivel de madurez que existía desde el punto de vista técnico en muchas de las áreas. Desde el punto de vista tecnológico le dieron madurez a la estrategia de infraestructura. Cabe destacar que en la parte de seguridad, para dar acceso desde diferentes puntos de vista a los diferentes niveles de acceso de la organización se establece un maestro de proyectos para poder establecer las bases de la organización en el nuevo proceso de transformación y aplicar una solución de Gobierno del Dato para dar visibilidad hacia todos los niveles.

¿Qué resultados se obtuvieron gracias a la solución?

  • 45 Proyectos
  • +500 usuarios a Nivel de Proyecto
  • +60 Directores de Operaciones
  • 17 Formaciones
  • Transparencia - Democratización del Dato
  • Profesionalidad - Gestión del Cambio
  • Transformación - Automatización de Procesos
  • Digital - PowerBI
  • Adopción rápida de la solución

¿Hacia dónde vamos?

Data Storytelling Powered by Gen AI

Aportar valor desde el punto de vista de Data Storytelling gracias a la IA Generativa. Antes eran los propios analistas los que generaban ese Data Storytelling. Sin embargo, gracias a la Inteligencia Artificial, es posible ayudar a los analistas de negocio para que sea la IA quien les cuente lo que está pasando en su negocio y aportar información valiosa desde un punto de vista descriptivo y predictivo, por ejemplo, en el área de riesgos. Los LLMs y las capacidades GPT son aplicables para obtener conocimientos instantáneos ocultos a partir de los datos, para responder preguntas previamente entrenadas basadas en la evolución de los datos a medida que el negocio cambia y para responder preguntas de texto o voz libres con memoria conversacional. 

Gen AI para sugerir Planes de Mitigación 

Para generar planes de mitigación asociados a los posibles riesgos y oportunidades de los proyectos utilizan GenAI a través de la traducción de más de 50 idiomas al inglés, la categorización de los riesgos y medidas paliativas, incluidas oportunidades de venta y la sugerencia de soluciones basadas en datos históricos, incluidas nuevas oportunidades. El proceso de acción es mediante una herramienta de gestión de riesgos donde los analistas pueden incorporar en formato de texto libre información de posibles mitigaciones asociadas a los riesgos. La IA les ha ayudado a clusterizar, segmentar y agrupar esas posibles mitigaciones, con las que se pueden establecer modelos de correlación.

Herramienta de generación de escenarios de riesgos impulsada por IA

Su objetivo final es ser capaces de construir una herramienta de gestión de escenarios que permita a los analistas de riesgos tener la posibilidad activar y desactivar planes de mitigación que tengan impacto directo en el negocio. La obra, hoy, está teniendo la posibilidad de manera preventiva de conocer el impacto del riesgo que pueden llegar a tener, gracias a que NEORIS les está proveyendo de determinadas herramientas para que el analista tenga la posibilidad de tomar decisiones a partir de esos datos.  

 

“Para medir el éxito de una solución es tremendamente importante medir el indicador de uso de esa solución”

 

 

Espacio Ready4Change | Píldoras para la Gestión del Cambio

Roberto Konigs, VP de Prosci Iberia, lleva 25 años Roberto Konigs, VP de Prosci Iberia lleva 25 años investigando qué pueden hacer las organizaciones para manejar mejor el cambio e impulsar la adopción y el uso de nuevas formas de trabajo. Durante esta trayectoria, han desarrollado modelos y herramientas que llevan a las organizaciones para ayudarlas a conseguirlo. En esta segunda cápsula de ‘Píldoras para el Cambio’, Roberto ofreció los cinco principios fundamentales que deben tenerse en cuenta en toda metodología de gestión del cambio. 

¿Qué es la Gestión del Cambio? 

  • A nivel de proyecto: Gestión del Cambio es la aplicación de un proceso estructurado y un conjunto de herramientas para liderar el lado humano del cambio y lograr los resultados deseados.
  • A nivel de la organización: Una competencia de liderazgo para habilitar el cambio dentro de una organización. Una habilidad estratégica diseñada para aumentar la capacidad de cambio y de respuesta al mismo.

La Gestión del Cambio nace en torno a los años 1970/80 y sus dos grandes impulsores fueron General Electric e IBM. Fueron los primeros en pensar en esa parte humana del cambio al vivir proyectos y darse cuenta de que cuando los líderes de proyecto se involucraban más, el proyecto tenía mejores resultados.  

Hoy en día existen varias metodologías de Gestión del Cambio. Sin embargo, existen cinco principios fundamentales que deben incluir todas ellas. 

1. Cambiamos por una razón. ¿Por qué cambiamos? Toda iniciativa de cambio tiene que empezar por un motivo. 
2.  El cambio organizacional requiere un cambio individual. ¿Quién tiene que hacer su trabajo de manera distinta (y cómo)? La unidad de cambio en una organización es la persona. Cada persona vive su propia experiencia del cambio y tenemos que entender quiénes y cómo podemos ayudarles a que hagan su trabajo de manera diferente. Si se trata de una iniciativa de Data, el reto es todavía mayor porque la Data es una cultura, un mindset, una manera de relacionarnos.
3.  Los resultados organizacionales son el resultado colectivo del cambio individual. ¿Cuántos de nuestros resultados dependen de la adopción y el uso? Si las personas no cambian, por muy buena que sea la implementación de la organización, no se van a obtener resultados.
4.  Gestión del Cambio es un marco de referencia que permite gestionar el lado humano del cambio. ¿Qué haremos para apoyar la adopción y el uso?
5.  Aplicamos Gestión del Cambio para obtener los beneficios y los resultados deseados del cambio. ¿Cómo el impulsar la adopción y el uso mejorará los resultados?



“La unidad de cambio en una organización es la persona”

 

cepsa_cionet137cepsa_cionet139

 

Informe CIONET-Arsys | Data Sovereignty & Cloud Strategy

 

Hace un año, en colaboración con Arsys, CIONET realizó un informe sobre cómo optimizar la inversión en la nube y facilitar la soberanía del dato en las organizaciones: ‘Data Sovereignty & Data Strategy’. En Data Quest, Luis Alberto de la Cruz, Director General Corporates de CIONET y Nieves Franco, CEO de Arsys mostraron algunos de los resultados obtenidos en una encuesta realizada para este informe en la que participaron 120 compañías de la comunidad de CIONET.

¿Cuál es el objetivo final del plan de inversión estratégica en TI y Comunicaciones?



Las organizaciones están evolucionando de una mentalidad en la que lo principal es reducir costes a una mentalidad en la que la prioridad es ser más competitivos y más eficientes, siendo la reducción de costes un plus. 

Modelo para la estrategia de infraestructura



Las organizaciones están adoptando una estrategia en este aspecto en función de la criticidad del dato. Si el dato es muy sensible, se opta por potenciar la infraestructura propia y si es dato no es tan crítico se pone en manos de un tercero para que sea más escalable. 

Porcentaje de presupuesto asignado a Infraestructura IT en Cloud


.
Es importante que un país tenga el control sobre su infraestructura tecnológica



Un 92% de los datos de compañías y de ciudadanos de España están alojados en infraestructura fuera de la Unión Europea. De ese porcentaje, un gran porcentaje se encuentra alojado en Estados Unidos. Esto implica que nuestros datos están en manos de países que no tienen una legislación tan avanzada en protección de datos como la de la UE. Existe un desconocimiento sobre las políticas de interoperabilidad que se están aplicando.

Un país debería desarrollar sus propias tecnologías y servicios digitales en lugar de depender de compañías extranjeras


 

¿Por qué es importante la soberanía del dato?

Nieves Franco: “La realidad es que el dato es crítico para nuestros negocios, pero tiene una doble vertiente. El dato es un dato de individuos, propiedad de sus propietarios y además es un dato de la compañía. Esa doble vertiente tiene que ser protegida, por lo menos eso establece la UE. En este ecosistema en el que estamos, podemos hablar de incoherencias y de cómo gestionamos una política conservadora o más intervencionista en materia de protección de datos como la europea, con la necesidad de innovación. La realidad es que es importante no solo dónde está el dato, sino qué legislación aplica a aquellos que están siendo garantes de los datos de las personas. La realidad es que tenemos que ser conscientes de que la legislación europea es garantista con los europeos, pero la legislación de otros países no lo es en absoluto. Es una necesidad tener un buen gobierno del dato, y tenerlos clasificados para tener una estrategia clara. No podemos olvidarnos de que tanto la legislación como la protección del negocio son esenciales.”

¿Cuál es la mejor nube para gestionar los datos?

Nieves: “Los datos son diferentes, las nubes son diferentes. Hace 15 años cuando se empezaba a hablar de Cloud, los menos optimistas aventuraban que pasados 5, 7 años el 100% de las cargas de todos los procesos productivos estarían en la nube. La realidad es que actualmente lo están un tercio de las cargas. El ecosistema actual es un ecosistema multicloud desde el punto de vista de las diferentes alternativas de nube pública y de nube privada.”

¿En qué estado se encuentra la adopción de Cloud?

Nieves: “Según Gartner, el 30%de los procesos se encuentra en internalización, porque hay una cuestión de costes que ha cobrado mucha relevancia. Se ha utilizado la nube pública sin un gobierno del dato previo y sin un análisis previo de los procesos que ha implementado notablemente los costes. Actualmente estamos en un proceso de homogeneización y de revisión de qué es lo que tenemos en tránsito.”

¿Cómo relacionamos la Soberanía del Dato, Cloud y la IA?

Nieves: “La IA son datos. La IA es gestión masiva de datos con unos modelos de aprendizaje o con una gestión del lenguaje, pero al final son datos. Cloud es un habilitador. El salto del que estamos hablando no sería posible sin la transformación durante los últimos 15 años en la forma de consumir infraestructura, ya que no podríamos hacer frente a las necesidades que tiene cualquier proyecto de IA o de computo en general.”

¿Cómo está trabajando la UE para favorecer la soberanía del dato?

Nieves: “Estamos en una situación complicada. Queremos ser garantistas con la libertad de elección y tener control de nuestros datos. Queremos que se regule pero por otro lado, la innovación se ve limitada por la legislación tan restrictiva que tenemos. Ahora mismo hay en marcha iniciativas en la UE para la legislación alrededor de la IA, pero necesitamos darnos prisa o no vamos a ser capaces de mantener la competitividad que necesitamos. El equilibrio tiene que estar basado en una agilidad que en los últimos años no hemos tenido.

 

 

Co-creación, innovación y datos para ayudar a los servicios de emergencias

Salomé Valero, Country Practice Leader Data Analtycis/IA en Kyndryl y Joan Herrera, miembro del Grupo de Refuerzo de Actuaciones Forestales (GRAF), demostraron como los datos pueden ayudar a salvar vidas. Revelaron una respuesta innovadora a uno de los mayores riesgos que enfrentan los bomberos forestales: la inhalación de gases nocivos. En el corazón de esta solución se encuentra Prometeo, un sistema que no solo recolecta datos, sino que redefine la seguridad de los bomberos a través de la inteligencia artificial y el IoT.

GRAF surgió hace 25 años como respuesta directa a los incendios forestales, convirtiéndose en pionera global en el análisis y acción frente a estas emergencias. Hace unos años, con la ayuda de Kyndryl, nace Prometeo, un sistema revolucionario que utiliza sensores para medir factores críticos, como los niveles de monóxido de carbono y NO2, así como la temperatura corporal de los bomberos. Este enfoque pionero, que se traduce en un dispositivo IoT y una aplicación móvil, ofrece no solo monitorización en tiempo real, sino una visión integral de las condiciones fisiológicas y ambientales en las que operan los bomberos. 

 

El núcleo tecnológico de Prometeo se materializa en un hardware compacto equipado con sensores especializados para la detección y emisión de datos cruciales. Además, hoy en día también se ha integrado un reloj inteligente y un teléfono móvil rugerizado, proporcionando a los bomberos la capacidad de visualizar su estado en tiempo real y recibir alertas pertinentes. Simultáneamente, el centro de mando centraliza la información, ofreciendo una visión completa no solo del estado de cada bombero, sino también de su ubicación exacta.

El funcionamiento de Prometeo se sustenta en la tecnología IoT y un algoritmo personalizado desarrollado ad hoc, respaldado por la inteligencia artificial. En sus últimas actualizaciones han integrado variables cruciales como los niveles de gases, temperatura y datos fisiológicos del bombero, creando un algoritmo más específico y ajustado a las condiciones individuales. Salomé Valero subraya la importancia de no limitarse a la medición de gases, enfatizando que factores como las condiciones meteorológicas y el estado físico del bombero también son esenciales. La respuesta fisiológica al trabajo, ya sea en reposo o esforzándose en la primera línea del fuego, es un factor determinante que este avanzado sistema tiene en cuenta.

Prometeo no se limita a recoger datos. El objetivo final es claro: no solo prevenir las tragedias actuales, mediante el desplazamiento unidades especializadas con un control total sobre la ubicación y estado fisiológico e inorgánico de los bomberos, sino anticiparse al futuro, ofreciendo mediante la monitorización a medio y largo plazo, un control de las constantes y del estado de salud de estos profesionales. En este contexto, el IoT juega un papel esencial al permitir la conectividad y la transmisión instantánea de datos vitales.

La historia detrás de Prometeo es conmovedora y motivacional. Joan Herrera, miembro de GRAF, compartió la tragedia personal durante un incendio en Horta de Sant Joan en 2009. La pérdida de compañeros y la supervivencia milagrosa de uno de ellos impulsaron la búsqueda de soluciones. La colaboración con Kyndryl a través de Salomé, llevó a la creación de Prometeo, un dispositivo que ahora ha sido galardonado con el prestigioso Edison de Oro, destacando su contribución excepcional en la categoría de soluciones de autoprotección y salud.

Prometeo no solo es aplicable para la problemática de los bomberos forestales, sino que se presenta como una solución escalable para los 20 millones de bomberos en todo el mundo y para la industria en general. La creciente virulencia e imprevisibilidad de los incendios, impulsada por el cambio climático, hace que sistemas como Prometeo sean esenciales para comprender y mitigar los riesgos que enfrentan estos profesionales. Esta solución no solo representa una innovación tecnológica puntera, sino un paso significativo hacia la protección y salvaguardia de aquellos que arriesgan sus vidas para proteger a comunidades y entornos naturales. La integración del IoT no solo mejora la eficiencia de la solución, sino que también marca un hito en la evolución de las tecnologías aplicadas a la seguridad y el bienestar de las personas.

 

“La transformación digital nunca fue una opción, sino un imperativo. Con el liderazgo de la Agencia Digital de Andalucía, estamos convirtiendo Andalucía en una región líder en transformación digital en Europa. Tenemos un plan, sabemos cómo hacerlo y lo estamos haciendo”

 

 

Analytics & IA as a Service: la evolución en Banco Sabadell

Luis Echavarri Lasa, Responsable de Analítica de datos e Inteligencia Artificial de Banco Sabadell y Enric Biosca, Director Data & Intelligence Europe & Latam de NTT Data, nos presentaron el tipo de banco que va a ser Banco Sabadell en el futuro. Banco Sabadell era un banco tradicional que ha querido evolucionar hacia un modelo de “Intelligent Bank” apoyado en la inteligencia artificial como ventaja competitiva que permita reforzar, apalancar e impulsar la estrategia de la entidad, basado en la personalización, los chatbots, el open banking, la moneda digital y la sostenibilidad. Están llevando a cabo un proceso de digitalización en el que están cambiando su relación con los clientes, de manera que el cliente tenga su propio autoservicio y los gestores conozcan mucho mejor las herramientas que pueden utilizar. 

Banking Intelligent Framework

  • Transformando relaciones. El uso de la IA permitirá dedicar esfuerzos a trabajo de alto valor: 20% de tareas no rutinarias que suponen el 80% de la creación de valor.
  • Innovando en modelos de negocio y procesos. Sacar partido del gran potencial de la IA para transformar el trabajo: creación de nuevos contenidos, racionalización de procesos, mejora de la eficiencia (automatización),  impulso de la creatividad y la innovación.
  • Obteniendo valor del dark data. Evolucionar algoritmos con datos transaccionales, uso de LLMs para procesar y analizar grandes cantidades de datos, acelerar el entrenamiento de modelos, etc..  para descubrir nuevos patrones e insights.

Proceso de cambio

  • La rotación de recursos
  • Migración a la nube: la nube se convierte en un estercolero de datos sin un gobierno de los mismos. El papel del
    CDO es esencial en este aspecto
  • Paso de modelos en modo POC a productivización de modelos
  • Autorización de modelos regulatorios en Machine Learning
  • Irrupción de la IA Generativa
  • Definición del Plan Estratégico de IA

El reto

El Área de Analítica e Inteligencia Artificial ha sido responsable de hacer de la Analítica avanzada y la IA una ventaja competitiva en la organización e impulsar su adopción, al mismo tiempo que de dar cobertura a la demanda analítica de las áreas de negocio, lo que se traduce en disponibilización de datos para consumo, plataforma analítica y desarrollo de modelos analíticos. Los retos que ha enfrentado Banco Sabadell en este proceso han sido los relacionados con:

  • Talento. El ciclo de vida analítico requería perfiles Data cualificados (Scientists, Analysts y Engineers) con una fuerte competencia en el mercado para su captación y retención. BS debía definir nuevas políticas de contratación y acciones de retención que potenciasen su motivación y participación a la vez que se daba respuesta a sus inquietudes, alejadas de las tradicionales
  • Modelo Operativo. Hacía falta perfiles data ubicados no sólo en IT sino embebidos en áreas de negocio que requerían analítica avanzada en su proceso de toma de decisiones estratégica. La evolución “independiente” de estos perfiles en las áreas generaba silos informacionales en el ámbito analítico sin un modelo de gobierno del dato común en toda la entidad y limitaba el aprovechamiento de sinergias.
  • Stack Tecnológico. No existía un plan de implantación de la plataforma analítica con capacidad para automatizar desarrollos y procesos ni productivizar e integrar los resultados de los modelos al ritmo requerido. La ejecución de proyectos estaba descentralizada, un criterio único de evaluación y priorización de iniciativas analíticas.

Talento: colectivo Data

Los Perfiles Data tienen inquietudes y motivaciones (innovación, cambio continuo, dimensión social) muy alejadas de las tradicionales. Satisfacer sus necesidades requería un nuevo enfoque y nace el Colectivo Data con el propósito de fomentar la cultura “Data-Driven” en la entidad y potenciar la atracción, retención y desarrollo profesional de los perfiles Data (analítica avanzada e IA). Este Colectivo está formado por distintas tipologías de perfiles relacionados con Data, como Data Analyst, Data Scientist o Data Engineer.


cepsa_cionet191-1 cepsa_cionet188

 

Las dinámicas que conforman el Colectivo Data son iniciativas asociadas a la generación de capacidades analíticas y de IA internas. Todas ellas van más allá de las asignaciones de proyectos (90% tiempo) y se conciben para desarrollarse en el 10% del tiempo restante de los miembros del colectivo. Algunas de estas iniciativas son las siguientes:

  • Plan de Carrera Data: personalizado, con una remuneración competitiva, progresión salarial y posibilidad de crecimiento vertical u horizontal
  • Formación continua: plan formativo específico Data que potencia, tanto capacidades técnicas, como funcionales
  • Programa de mentoring: acompañamiento a los perfiles Data durante toda su carrera profesional
  • Proyectos transversales/Retos: impulsar la cultura de equipo, motivación y colaboración, mediante la participación en nuevos retos, eventos “Data” y “Sociales” (hackatones y colaboraciones con fundaciones y ONGs), iniciativas para el intraemprendimiento, etc
  • Comunidad Data: poner en marcha espacios/actividades de trabajo comunes para el conjunto de perfiles data de la entidad

A su vez, todas estas iniciativas se estructuran en cuatro formatos:

  • Datathinks. Foros para el desarrollo de líneas de trabajo estratégicas para la Comunidad Data: Innovación, Ética IA, MLOPs, metodología y Feature Stores.
  • DataCells. Grupos de trabajo reducidos donde profundizar acerca de una temática A&AI concreta para, posteriormente, generar y difundir contenidos divulgativos sobre la misma.
  • Data Fridays. Encuentros, un viernes al mes, entre los miembros de la Comunidad Data para celebrar actividades formativas, divulgativas y retos técnicos. 
  • Actividades sociales. Proyectos, en colaboración con Fundaciones y ONGs, que impulsen un cambio social hacia un mundo más sostenible gracias al uso de la analítica avanzada y la IA.

Modelo Operativo: HUB & Spoke

El Modelo Hub & Spoke centraliza capacidades, sin generar verticales descolocadas con negocio, y promueve agilidad y entrega de valor a negocio de forma continua e incremental.

  • Metodología Común: basada en modelos DataOps y MLOps, garantiza el cumplimiento de los estándares IT y homogeneiza la codificación.
  • Desarrollo en Plataforma Analítica centralizada: datos y criterios comunes, reduciendo retrabajos e incoherencias en KPIs y resultados.
  • Acceso al dato corporativo ágil: centraliza requerimientos y posibilita el acceso virtualizado al dato.
  • Corporativización de datos / modelos centralizados: reduce costes y dedicación de equipos de negocio priorizando procesos y modelos a productivizar.
  • Acceso a aceleradores de desarrollo (librerías de monitorización de ética, performance, calidad del dato…).
  • Integración con herramientas corporativas de Gobierno del dato.
  • Industrialización y corporativización gobernada por IT: asegura la coherencia con procesos críticos de BS y el cumplimiento con las exigencias del regulador.
  • CoE: creación de un centro de excelencia que vela por la innovación, calidad técnica y eficiencia de desarrollo de las soluciones de analítica e IA

Stack Tecnológico

Se conceptualiza la implantación de una arquitectura analítica completa que dé soporte el desarrollo de modelos desde la ingesta de datos hasta su explotación e incluya las funcionalidades/capacidades necesarias (analíticas, cognitivas e IAG) para cubrir las necesidades de todos los stakeholders, garantizando un modelo más homogéneo y flexible de trabajo. 

  • Metodología MLOPs: facilita la industrialización del proceso de desarrollo, entrenamiento y producción de modelos ML con procedimientos automatizados.
  • Desarrollo de repositorios corporativos (Featured Stores) de datos desestructurados (Conversaciones, prompts, iteraciones del asistente virtual, etc.).
  • Desarrollo de capacidades cognitivas transversales (Text analytics, Speech Analytics, Asistentes Virtuales, Gestor documental inteligente e IA Generativa).
  • Plataforma transversal: disponibiliza estructuras de datos comunes e integra capacidades/procesos analíticos de distintas unidades de negocio.
  • Plataforma gobernada y robusta: dispone de herramientas que garantizan el gobierno del ciclo de vida del dato/soluciones A&IA a la vez que cumplen con los estándares exigidos por el regulador.
  • Modelo Cloud: cumple con los estándares de calidad y habilita el uso de datos sensibles y personales. Cuenta con capacidades de escalar por proceso, optimizando el consumo de recursos.

Impacto

El Colectivo Data se ha convertido en un polo de atracción de talento analítico incrementando su visibilidad y sus acciones, así como expandiendo la cultura analítica e IA en la entidad. El proceso de captación y formación de Talento Data centralizado impulsa el desarrollo de A&AI (Visión integral), reduce la necesidad de subcontratación en las áreas de negocio y dota de un plan de carrera específico a los Perfiles Data. Además, la comunidad Data propicia un entorno colaborativo para intercambiar experiencias, establecer foros, eventos e iniciativas centralizadas, identificar nuevas oportunidades, compartir información, etc. 

Por otra parte, el desarrollando de soluciones A&IA da respuesta a las necesidades de las áreas de negocio, propicia un gobierno centralizado de los modelos analíticos, garantiza el cumplimiento de los principios éticos, provoca la racionalización del aprovisionamiento, procesos y salidas, de tal manera que se eliminan redundancias, se reordena el ámbito analítico y se automatizan procesos, minimizando tareas manuales y reworking, y el HUB ofrece soporte especializado de herramientas, modelos y tecnologías a las áreas de negocio.


Lecciones aprendidas

En todo proyecto de sistemas, el dato se presenta como un elemento crucial para lograr resultados efectivos. La calidad de los resultados obtenidos de cualquier modelo analítico está intrínsecamente ligada a la calidad del set de datos con el que se entrena, ya que datos deficientes conducirán a resultados deficientes. La inclusión de nuevos tipos de datos, como prompts, respuestas, información de TPVs, datos de chats y transcripciones de llamadas, se vuelve esencial para un enfoque integral. La clave radica en contar con sistemas que garanticen datos detallados, de calidad y bajo un marco de gobernanza adecuado.

En cuanto al talento necesario, los perfiles Data, que abarcan funciones como Data Architect, Data Engineer, Data Scientist, Data Analyst y Business Translator, desempeñan roles cruciales. Los Data Scientists, en particular, son altamente demandados debido a sus habilidades y aspiraciones distintivas en la era de modelos construidos y Language Model Models (LLM). En el ámbito operativo, se destaca la importancia de compartir un modelo organizativo a todos los niveles, implementar un modelo fluido que otorgue protagonismo a las áreas correspondientes y encontrar el equilibrio entre centralización y descentralización de funciones. Por último, en lo relativo al stack tecnológico, la llegada de la IA Generativa ha representado un avance significativo, aunque las soluciones aún no alcanzan su madurez total, requiriendo un enfoque de estar, probar, entender y evolucionar en este fascinante camino. 

 

“La evolución de la IA será un aliado, pero los beneficios económicos llegarán con su aplicación comercial a productos y modelos de comercialización”

 


 

CIO meets CDAO

En base a las intervenciones de la jornada, David Villaseca, CDO de Cepsa; Mercedes Vidal, CIO, Spain & Global Digital Channels Director de Vodafone; y Chris Palomino,  Global IT Vice President de Meliá Hotels; fueron los participantes del panel de debate que se encargaron de cerrar el programa de este Quest, que contó con la moderación de Luis Alberto de la Cruz, Director General de Corporates de CIONET.

PARTE I - La importancia del dato dentro de la estrategia de transformación.

¿Por qué son los datos importantes cuando hablamos de digitalización?

Chris Palomino: “Toda transformación tiene un motivo. La digitalización ayuda a que la organización haga lo que quiere hacer con los mejores resultados posibles. La sangre de la digitalización es el dato. Lo hemos visto en todos los casos que hemos tenido aquí. Necesitamos el dato porque la forma en la que podemos ayudar a nuestras empresas es disparando la acción óptima en el momento óptimo a través del canal. Para esto hay que saber cuál es el momento, qué es lo que hay que hacer y quién lo tiene que hacer. Existen muchas sinergias entre las disciplinas de tecnología de la información, de gestión del dato y de la seguridad. Cada una tiene sus propias particularidades, pero todas comparten factores con mucha relación. Tiene sentido que estemos cerca los responsables de tecnología, de seguridad y del dato para asegurar un correcto proyecto de transformación digital de las compañías”

¿Cuál es el papel del CIO/CDO/CDAO para llevar a cabo este proceso de Transformación y qué importancia tiene el dato de esta estrategia? 

Mercedes Vidal: “Somos compañeros de viaje, independientemente de las siglas que tengamos en los diferentes roles. Estamos aquí para hacer esta trayectoria, esta transformación juntos. Todos tenemos y aportamos desde nuestros diferentes roles un punto de vista, una responsabilidad que es muy importante ponerla en conjunto. No solamente el uso de datos, sino dónde está, dónde se almacena… Tenemos que ser muy conscientes de los riesgos en los que podemos poner a nuestros clientes o a nuestro propio negocio. Por eso somos compañeros de viaje, por el respeto, el entendimiento, la ayuda y la colaboración que es fundamental entre estos roles para que todas las piezas encajen”

¿Cómo se debe crear una estrategia de datos e inteligencia artificial centrada en generar impacto en los negocios y resolver o impulsar los objetivos estratégicos?

David Villaseca: “Llevo 14 meses como CDO de Cepsa y en mi primera conversación con el CEO le pregunté si quería que fuéramos los líderes digitales o motor de negocio. Él no dudó ni un momento. Estamos en una gran transformación en Cepsa y en todo el sector. El reto es enganchar con la estrategia. Me senté con los responsables de las unidades de negocio y ellos tenían clarísimo que necesitaban dar el salto a los datos, a la Inteligencia Artificial, a la IAG. Ese engranaje con las necesidades de negocio fue la segunda clave. La tercera clave es democratizar los datos y la IA y ponerlo al servicio de todos y cada uno de nuestros compañeros. Hemos hecho formación en los últimos meses a más de 1.600 empleados. Esas capacidades digitales poco a poco van permeando fuera de los equipos de Digital. El camino es hilar con la estrategia, pero democratizar el acceso para que todos nuestros empleados y clientes se beneficien”.

 



PARTE II -  Situación del dato y la IA en sus compañías y ejemplos prácticos.

Hemos visto hoy cómo la sostenibilidad es clave para CEPSA. ¿Qué supone el dato en vuestra estrategia Green Digital?

David Villaseca: “Es el corazón de toda la estrategia. Cuando hablamos de Green Digital queremos decir que realmente el mundo de lo digital, del dato, de la IA está en el corazón del negocio y es un motor de la transición energética. Nuestra obligación es empoderar a nuestros clientes y a nuestros empleados en su propio camino hacia la descarbonización. Lo digital no es un fin, es un medio para tener un impacto positivo en el mundo. Después del propósito, las personas. Ser capaces de trabajar en las metodologías y de trabajar con nuestros clientes. Es necesario hablar un lenguaje de valor, un lenguaje de negocio. Se habla de crear plantas nativas digitales con el dato embebido desde el principio durante el diseño, la construcción, la operación... El impacto de hablar el lenguaje de negocio es dramático, estamos haciendo que aumenten nuestros ingresos y ayudamos en esa transición”

En compañías grandes, con distintas áreas, ¿quién es el dueño de los datos, hay silos de datos, hay shadow BI? ¿Qué puede hacer una compañía con un reto como éste?

Mercedes Vidal: “Toda esta necesidad de poder tener el dato para poder operar, para poder tomar decisiones, para que las unidades de negocio tengan el control gracias a la democratización hace que los datos se expandan. Debido a la gran cantidad de Data, de requests y de reports se crean cuellos de botella donde el departamento de tecnología no da a basto a la generación de datos. Las cuestiones son: ¿tenemos la data correcta?, ¿es toda la data necesaria?, ¿tiene la data la actualización que debe de tener?, ¿estamos tomando decisiones sobre data que a lo mejor es vieja o generada desde puntos de partida que no son el core de la información?. Tenemos que crear un modelo mucho más simple, más transparente y más colaborativo donde se de acceso a la gente con la democratización de una forma controlada y donde podamos ser conscientes y tomar la responsabilidad de dónde viene la información, cómo se almacena y cómo se maneja. Necesitamos que se expanda ese conocimiento para crear procesos colaborativos necesarios para que todos podamos enriquecernos de una manera consciente. 

¿Cómo se utilizan los datos en una cadena hotelera para mejorar la experiencia del cliente, en este caso del huésped?

Chris Palomino: “La personalización es una de las partes más importantes en los procesos de digitalización de las empresas BtoC. Nosotros tenemos una relación muy íntima con nuestros clientes. La información que manejamos no es pública, por lo que la personalización es muy importante que sea confiable y no intrusiva. Aplicamos Inteligencia Artificial y personalización en muchos ámbitos. Por ejemplo, el tipo de habitación que aparezca en una búsqueda depende de las experiencias previas. Todo el proceso se basa en la omnicanalidad. La conversación de los clientes está personalizada en todos los canales. Por otro lado, uno de los procesos más complejos en la operación hotelera es la asignación de habitaciones, ya que depende de numerosos factores. Este proceso ha sido uno de los últimos en digitalizarse, pero ya lo hacemos. Hay personalización durante todo el ciclo, pero con mucho cuidado y sin ser de una manera intrusiva ni muy obvia. Digital está detrás de prácticamente todos los procesos para facilitar el trabajo al personal del hotel.”
 

cepsa_cionet208-1 cepsa_cionet214


PARTE III - Otros aspectos relevantes 

¿Qué estrategias se emplean en Meliá para maximizar los ingresos a través de la gestión de datos? ¿Y tiene la IA aquí un papel relevante? 

Chris Palomino: El caso más obvio es el cálculo del precio al cual se venden las habitaciones. Esto no depende del cliente, sino de la demanda que hay en el hotel. Para esto utilizamos numerosos datos de lo que está pasando en nuestra web y en las búsquedas de Google. Estos datos, que no son personales, nos permiten optimizar al máximo el precio al que vendemos cada habitación. 

¿Es clave que un servicio de gobierno del dato esté acorde con los objetivos y cultura de la empresa o hay otros aspectos más importantes?

Mercedes Vidal: La cultura de cualquier empresa debe ser producida consecuentemente y tiene que filtrar en todo lo que hace la compañía. Las estrategias cambian, pero las culturas permanecen. Las empresas que tenemos un propósito claro, somos capaces de traducirlo, traspasarlo. Dentro de Vodafone es muy importante entender el propósito, entender los objetivos y las estrategias de la compañía. En cada acción que hacemos, en cada proceso, en la manera de gestionar, el valor que la data puede traernos como compañía debería ser un elemento fundamental para apoyar esas estrategias. La cultura sí, la estrategia también, pero al final de todo están las personas y es esencial saber cómo llegamos al cambio de mindset para que permanezca y sea sostenible. 

¿Cómo asegurar el gobierno de los datos y la integración de todo ello dentro de la cultura? 

David Villaseca: Es un tema que compartimos en toda la organización. Desde el CEO hasta cada uno de los compañeros que trabajamos en esta propia transformación. El mensaje es que tenemos que sentir que los empleados están empoderados con estos datos, con la IA y que vean soluciones tangibles. La democratización es crítica, empoderar a los empleados con datos en tiempo real. Esta es una de las claves, pero a la vez nos exige mucha responsabilidad a todos. Esta democratización va muy asociada con la idea del gobierno de los datos. Este año hemos creado una Data Management Office integrada porque antes había equipos con diferentes roles relacionados con el dato, pero ahora lo hemos integrado porque es una responsabilidad estratégica de la organización. Lo mismo ocurre con la IA. Nosotros tenemos claro que tenemos que hacer un uso responsable de la IA, hay que aprovechar sus oportunidades, pero tenemos que ser capaces de hacerlo bajo un entorno común y compartido entre todos. Entornos de colaboración, de innovación abierta, nos permiten aprovechar el ecosistema. 

 

cepsa_cionet009

cepsa_cionet031cepsa_cionet021

 

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Spain

Subscribe by Email