Este artículo está basado en las intervenciones que tuvieron lugar durante el último encuentro del Programa Quest, que se llevó a cabo el pasado jueves 24 de octubre de 2024 en Madrid. Durante este encuentro, más de 70 líderes digitales tuvieron la oportunidad de explorar analizar el impacto transformador de los datos en las empresas. Bajo el lema «Datos para mejorar los negocios», los asistentes examinaron casos reales de cómo las empresas están utilizando los datos para innovar, optimizar la toma de decisiones y seguir siendo competitivas. Este evento puso de relieve la importancia crítica de los datos en la estrategia y las operaciones empresariales contemporáneas.
Con Luis Enrique Alonso | Head of Engineering AI Factory Spain | BBVA
En el marco de su estrategia de transformación digital, BBVA ha presentado recientemente un ambicioso proyecto que marca un nuevo hito en su evolución tecnológica: la migración de su entorno informacional y analítico a la nube de Amazon Web Services (AWS). Durante la presentación, la entidad bancaria compartió los principales retos y palancas que está impulsando para alcanzar este objetivo, subrayando los beneficios que la nube ofrece en cuanto a escalabilidad, eficiencia y capacidad de innovación.
Los retos identificados en el camino hacia la nube
BBVA ha identificado cinco grandes áreas de desafíos que requieren atención prioritaria en el proceso de migración:
El alcance y las cifras del proyecto
El proyecto de migración de BBVA destaca no solo por su ambición, sino también por las impresionantes cifras que lo respaldan. Actualmente, el banco planea migrar más de:
Premisas fundamentales para el éxito
BBVA ha definido cinco premisas clave que guiarán la ejecución del proyecto:
Cómo
Las fases del proyecto: del plan a la acción
BBVA ha dividido la migración en varias fases fundamentales, asegurando una transición ordenada y efectiva:
Value Streams: Ámbitos de ejecución
El proyecto se organiza en torno a "Value Streams", que aseguran una creación y migración eficiente desde diferentes perspectivas clave:
Program Governance: Una gestión sólida y escalonada
La gobernanza del programa se estructura en tres niveles jerárquicos, cada uno con objetivos claros y un enfoque colaborativo que asegura el éxito del proyecto:
Cada uno de estos niveles está diseñado para operar de forma sincronizada, asegurando que las decisiones estratégicas se traduzcan en acciones operativas concretas y que los objetivos a largo plazo se alcancen sin comprometer las operaciones diarias del banco.
Aprendizajes
BBVA ha destacado varias lecciones aprendidas durante la ejecución del modelo Big-Bang y el proceso de migración:
Con Sonia Ferrero | Chief Data & Analytics Officer | Renfe y Ramón Miranda | EME Head of Innovation | Avanade
¿Por qué un Datahon?
El Datathon Interno se trata de una iniciativa diseñada para mejorar la toma de decisiones dentro de la empresa ferroviaria mediante el uso avanzado de datos. Este proyecto involucró a empleados de diferentes sectores de la empresa en una serie de retos analíticos, con el objetivo de abordar y solucionar problemas relacionados con la dispersión y duplicidad de datos, además de mejorar el acceso a la información a través de la plataforma única de Renfe.
El Datathon se enmarca dentro de un esfuerzo más amplio por integrar soluciones tecnológicas avanzadas en las operaciones diarias y estratégicas de Renfe. Esta estrategia busca no solo optimizar procesos existentes, sino también explorar nuevas vías para incrementar la sostenibilidad, seguridad, eficiencia y accesibilidad de sus servicios ferroviarios. El evento fue más que una competición de habilidades técnicas; representó una oportunidad para fomentar la colaboración interdepartamental y el intercambio de conocimientos, asegurando que las soluciones propuestas estuvieran bien fundamentadas y alineadas con las necesidades operativas y estratégicas de la empresa.
Aspectos clave para el éxito
El Datathon Interno organizado por Renfe y Avanade ha demostrado ser un modelo exitoso para la mejora de procesos y la toma de decisiones basada en datos. Este evento, diseñado no solo como una competencia sino como un proceso integral de aprendizaje y colaboración, estableció varios pilares fundamentales que garantizaron su efectividad.
Primero, el evento se centró en establecer retos claros y alineados con los objetivos estratégicos de la empresa. Esto permitió que los participantes trabajaran con metas concretas que reflejaban las necesidades y prioridades reales de Renfe, asegurando que los resultados obtenidos tuvieran un impacto directo y medible en la organización.
La involucración clave de los stakeholders, desde ejecutivos hasta empleados de diversos departamentos, fue otro aspecto crucial. Este enfoque colaborativo no solo fomentó un ambiente de trabajo en equipo sino que también aseguró la alineación de todos los niveles de la empresa con los objetivos del Datathon. La selección estratégica de los participantes, basada en su motivación y el valor que podían aportar al proyecto, fue esencial para generar ideas innovadoras y soluciones aplicables.
El diseño dinámico del evento también jugó un papel fundamental. La implementación de técnicas de design thinking y la gamificación incentivaron la creatividad y la participación activa de todos los involucrados. Además, se ofrecieron sesiones formativas que proporcionaron a los participantes un entendimiento más profundo de cómo los datos, herramientas y tecnologías emergentes pueden transformar organizaciones, preparándolos para enfrentar y resolver los desafíos presentados de manera efectiva.
Finalmente, la importancia de establecer un tiempo crítico para conclusiones productivas se enfatizó a lo largo del Datathon. Esto permitió que el evento no solo se limitara a la recopilación de ideas, sino que también se concentrara en la concreción y aplicación de las soluciones, asegurando que los esfuerzos invertidos se tradujeran en mejoras reales y duraderas para Renfe.
Impacto del Datathon
El Datathon Interno organizado por Renfe y Avanade ha tenido un impacto considerable en la organización, evidenciado por los resultados y el entusiasmo general de los participantes para repetir la experiencia. Este evento, más allá de ser una competencia, se convirtió en un catalizador para el desarrollo profesional y la innovación interna.
Los participantes enfrentaron un total de 8 desafíos críticos, cada uno originado en diferentes sectores de la empresa, como la oficina del Dato y Trenlab. Los proyectos abordaron desde la optimización de la gestión de la flota hasta la mejora de las comunicaciones con los viajeros, demostrando la versatilidad y el alcance de los datos para resolver problemas complejos y variados.
Una de las métricas de éxito más destacadas del Datathon fue la alta tasa de satisfacción de los participantes, con un impresionante 99.9% expresando su interés en participar en futuras ediciones. Esto subraya no solo el valor percibido del evento en términos de desarrollo personal y profesional, sino también su efectividad en fomentar un ambiente de trabajo colaborativo y dinámico.
Cada equipo, nombrado en honor a figuras históricas reconocidas por sus contribuciones a la ciencia y la exploración, trabajó en retos que no solo buscaban optimizar operaciones internas sino también mejorar la experiencia del cliente. El Datathon no solo promovió la utilización de la plataforma ÚNICA y la transformación digital de Renfe, sino que también sirvió como una piedra angular para futuras iniciativas. Movilizó a equipos de especialistas que, a través de la colaboración y el intercambio de conocimientos, lograron plantear soluciones creativas y efectivas a problemas largamente arraigados.
Con Elena Gutiérrez García | Gerente Adjunta | GISS y Ángel del Río | Account Executive | Teradata
La GISS
La Gerencia de Informática de la Seguridad Social (GISS) se posiciona como una entidad crucial en la modernización y digitalización de los servicios públicos en España, trabajando codo con codo con diversas entidades de la Seguridad Social. La misión principal de la GISS es facilitar soluciones digitales avanzadas tanto para ciudadanos como para empresas, garantizando un acceso más ágil y eficiente a los servicios sociales.
El corazón de la estrategia digital de la GISS se articula en torno a varias áreas clave. Por un lado, el Servicio Común de la Seguridad Social que se encarga de centralizar y estandarizar los procesos para optimizar el servicio al usuario. Por otro lado, la Gestión y Administración de las TIC juega un papel fundamental en el manejo eficaz de las tecnologías de la información y comunicación.
Uno de los aspectos más destacados de la GISS es su liderazgo en la transformación digital del sector, no solo implementando tecnologías sino también promoviendo un cambio en la cultura organizativa hacia una más dinámica y adaptativa ante los cambios rápidos del entorno tecnológico. Este liderazgo es vital para asegurar que la Seguridad Social pueda no solo seguir el ritmo de la innovación, sino ser un ejemplo de ella.
Finalmente, la GISS contribuye significativamente a los objetivos de las Estrategias Europeas de Gobernanza Electrónica (EEGG), donde la tecnología se ve como un facilitador clave para alcanzar metas de inclusión y accesibilidad universal. La integración de nuevas tecnologías está permitiendo a la Seguridad Social ofrecer un servicio más personalizado y accesible, marcando un hito en la manera en que los ciudadanos interactúan con el Estado.
Retos planteados
Dentro del marco de la transformación digital que está llevando a cabo la Gerencia de Informática de la Seguridad Social (GISS), se han planteado tres retos esenciales:
Solución adoptada
En un esfuerzo continuo por mejorar y optimizar los servicios que presta el Instituto Nacional de la Seguridad Social (INSS), la Gerencia de Informática de la Seguridad Social (GISS) ha adoptado una serie de soluciones tecnológicas que reflejan un compromiso firme con la eficiencia y la efectividad. Central a estas iniciativas es el desarrollo de un cuadro de mando integral y la definición de indicadores clave de rendimiento (KPI) específicos para los procesos que tienen un impacto directo en los ciudadanos.
Este cuadro de mando permite a la GISS no solo seguir el desempeño de diversos procesos y aplicaciones en tiempo real, sino también actuar de manera proactiva frente a posibles desviaciones. La monitorización diaria mediante indicadores visualmente intuitivos —valores en verde indican normalidad y valores en rojo alertan sobre anomalías— facilita una rápida respuesta a incidentes, garantizando que los estándares de servicio no se vean comprometidos.
Entre las aplicaciones monitorizadas se encuentran servicios esenciales como prestaciones de jubilación, subsidios de incapacidad temporal, y el Ingreso Mínimo Vital, todos cruciales para el bienestar de los ciudadanos. La volumetría de datos manejados es impresionante, con 15 orígenes de datos diferentes y más de 36,000 registros que reflejan la escala y la complejidad de las operaciones del INSS.
Un logro destacado ha sido el aumento en la eficiencia del trámite de las solicitudes de jubilación. Desde la implementación de la monitorización, el KPI 'Premium de jubilación' ha mostrado un aumento del 6%, un indicativo claro de que la tecnología está teniendo un impacto positivo en la rapidez y precisión de los servicios proporcionados.
Lecciones aprendidas
Con Marc Siry | Strategic Partnerships - Telco Ecosystem Partnerships | Meta (Facebook) e Ignacio Hafner | Managing Director and Partner | Líder de Tecnología y Data en Iberia | BCG
GenAI, la mayor oportunidad para las Telcos
El sector de las telecomunicaciones se encuentra ante una revolución potencial con la integración de la Inteligencia Artificial Generativa. Esta tecnología promete transformar el panorama actual, ofreciendo a las empresas de telecomunicaciones una oportunidad sin precedentes para optimizar sus operaciones y maximizar su rentabilidad.
Según Meta y BCG, la implementación de GenAI podría reducir los gastos operativos de las compañías de telecomunicaciones hasta en un 30%, mientras que los ingresos podrían incrementarse en un 20%. Este notable aumento en la eficiencia no solo mejoraría la salud financiera de estas empresas, sino que también aceleraría su crecimiento al doblar el EBIT en comparación con las cifras actuales.
La clave para desbloquear el 90% del valor potencial de GenAI radica en realizar transformaciones a medida. A diferencia de las soluciones genéricas de IA, que solo contribuyen al 10% del potencial total, estas adaptaciones específicas permiten una integración más profunda y efectiva de la tecnología en las operaciones diarias de las telecomunicaciones, asegurando así un cumplimiento normativo y una respuesta más ágil a las necesidades del mercado.
Para alcanzar este máximo potencial, es necesario un viaje estratégico de unos cinco años que incluye dominar la tecnología emergente y fomentar una transformación cultural dentro de las organizaciones. El primer paso es adquirir una comprensión profunda de GenAI, adaptándola específicamente a las necesidades y desafíos del sector telecomunicativo. Esto involucra no solo la adopción de nuevas herramientas, sino también un cambio en la mentalidad corporativa para fomentar la innovación y la adaptabilidad.
Impulsar este cambio no será tarea fácil y requerirá aproximadamente tres años de reimaginación y ajuste de procesos internos. El objetivo final es que las empresas no solo adopten nuevas tecnologías, sino que también se transformen en entidades más ágiles y eficientes, capaces de enfrentar los desafíos del futuro con solidez y creatividad.
Acelerador de GenAI
Meta y BCG se han unido para desarrollar el Acelerador de GenAI, un proyecto que tiene como objetivo integrar la Inteligencia Artificial Generativa, poniendo a la empresa y sus necesidades operativas en el centro de la adopción tecnológica, asegurando que las soluciones no solo sean avanzadas, sino también plenamente compatibles y funcionales dentro del marco empresarial existente.
El Acelerador de GenAI se construye sobre tres pilares fundamentales: tecnología preparada para la empresa, compatibilidad integrada y una perspectiva centrada en los negocios. Este enfoque tridimensional garantiza que la implementación de la IA no sólo sea técnicamente viable, sino también directamente aplicable y beneficiosa para los procesos de negocio diarios.
Agentes virtuales
La interacción con clientes ha dado un salto cualitativo con la implementación de agentes virtuales capaces de comunicarse con una naturalidad y profundidad sorprendentemente humanas. Este avance tecnológico promete transformar el servicio al cliente, reduciendo costes mientras mejora la calidad y eficiencia de la atención.
El proceso comienza con un detector de intención, una herramienta clave que interpreta las necesidades del cliente y guía la conversación hacia los resultados deseados. Esta información es procesada por un orquestador, que gestiona múltiples bots especializados para manejar diferentes aspectos de la consulta del cliente, desde preguntas generales hasta temas más complejos que requieren un enfoque especializado.
Una característica distintiva de este nuevo sistema es su capacidad para ofrecer una comprensión profunda del cliente, lo que permite interacciones más personalizadas y eficaces. Además, las conversaciones fluyen de manera más natural y los tonos de voz de los agentes virtuales son increíblemente similares a los humanos, lo que hace de la llamada una experiencia más confortable y menos mecánica para el usuario.
En situaciones donde se requiere una atención más detallada o específica, el sistema está diseñado para transferir sin problemas al cliente a un especialista humano. Este especialista tiene acceso a un corpus de conocimiento extenso y a APIs que permiten una integración fluida de la información del cliente, garantizando una transición eficaz y coherente en el manejo del caso.
Además, estos agentes virtuales están equipados con APIs para generar tickets, iniciar procesos y administrar flujos de trabajo, lo que asegura que cada interacción sea tan productiva como sea posible. Esta tecnología no solo está estableciendo nuevos estándares en términos de eficiencia de costes en el servicio al cliente, sino que también está redefiniendo las expectativas de los clientes sobre cómo debe ser una experiencia de servicio al cliente en la era digital.
Desafíos a considerar
Con Fernando Lipúzcoa | CDO | ING
Fueling Innovation: future-proof Data to drive business growth
En el momento en el que nos encontramos, los datos son uno de los recursos más valiosos para las empresas. ING y Denodo nos invitan a imaginar cómo los datos, al igual que los ingredientes en la cocina, pueden ser manipulados y mejorados para crear soluciones que impulsen el crecimiento y la innovación en los negocios.
Esta representación destaca cómo una gestión de datos sofisticada y bien estructurada puede ser la clave para desbloquear el potencial de innovación dentro de una organización, asegurando que cada decisión y estrategia esté bien informada y sea efectiva.
Periodo de transición y sus retos
ING está navegando un período de transición clave en la gestión de datos con el objetivo de impulsar el crecimiento del negocio y responder eficientemente a las demandas del mercado. A través de una estrategia bien estructurada, la entidad está enfrentando desafíos y aprovechando oportunidades en el ámbito de los datos para optimizar sus operaciones y mejorar la experiencia del cliente.
La estrategia de ING se centra en una evolución continua desde los sistemas de registros básicos hasta la creación de productos de datos sofisticados, destinados a satisfacer las necesidades de diversos consumidores de datos dentro y fuera de la organización.
Los productos de datos resultantes de este flujo están diseñados para servir a varios grupos clave:
Data Virtualization
ING ha adoptado la virtualización de datos como una estrategia clave para mejorar la accesibilidad y la eficiencia en el uso de sus recursos informativos y se ha apoyado en la solución de Denodo para llevarlo a cabo. La virtualización de datos se ha convertido en un componente fundamental en la estrategia de datos de ING debido a varios desafíos críticos:
La implementación de la virtualización de datos en ING ha alcanzado un estado actual que refleja tanto la madurez tecnológica como la eficiencia operativa de la organización. Gracias a la solución de Denodo, ING ha logrado crear un entorno donde la integración, el acceso y la gestión de datos se realizan de manera fluida y eficiente, apoyando así una amplia gama de necesidades de consumo de datos.
Estado actual de la virtualización de datos en ING
Looking ahead
En la vanguardia de la tecnología y la innovación, ING continúa expandiendo sus horizontes en la gestión y el procesamiento de datos. Mirando hacia el futuro, la entidad financiera tiene planes ambiciosos para integrar y optimizar aún más sus capacidades digitales, destacándose las siguientes áreas clave:
The journey with Denodo
ING reconoce que la virtualización de datos es fundamental para su estrategia de datos. No es simplemente un proyecto, sino una herramienta esencial que permite a la organización ser más ágil y eficiente en el manejo de datos. Esta perspectiva asegura que la virtualización de datos se maneje con la importancia estratégica que requiere, integrándola profundamente en las operaciones diarias y los objetivos a largo plazo de ING.
La selección de las herramientas correctas es crucial para el éxito de la virtualización de datos. ING pone un énfasis particular en elegir las soluciones adecuadas que no solo se alinean con su arquitectura de datos existente, sino que también soportan sus políticas y los retos de implementación. Esto incluye una evaluación cuidadosa de las características tecnológicas y la capacidad de las herramientas para integrarse sin problemas con los sistemas existentes.
Denodo ha jugado un papel instrumental no solo proporcionando la tecnología, sino también apoyando a ING a través del proceso de implementación con sesiones de asesoramiento específicas. Estas sesiones aseguran que ING pueda maximizar el potencial de la plataforma Denodo y abordar cualquier desafío técnico o de gestión que pueda surgir durante la implementación.
Desde el inicio del proyecto, ING ha implementado caché para mejorar el rendimiento de la virtualización de datos. Esto es fundamental para asegurar que el acceso a los datos sea rápido y eficiente. Por último, considerar un marco de riesgo IT es imperativo para una implementación realista y exitosa. ING tiene en cuenta los riesgos tecnológicos y de seguridad al implementar la virtualización de datos, asegurándose de que todas las prácticas estén en línea con las mejores prácticas de seguridad y cumplimiento.
These Stories on CIONET Spain
No Comments Yet
Let us know what you think