CIONET News

Data Quest 2024

Written by Redacción CIONET Spain | January 03, 2025 @ 6:53 PM

Este artículo está basado en las intervenciones que tuvieron lugar durante el último encuentro del Programa Quest, que se llevó a cabo el pasado jueves 24 de octubre de 2024 en Madrid. Durante este encuentro, más de 70 líderes digitales tuvieron la oportunidad de explorar analizar el impacto transformador de los datos en las empresas. Bajo el lema «Datos para mejorar los negocios», los asistentes examinaron casos reales de cómo las empresas están utilizando los datos para innovar, optimizar la toma de decisiones y seguir siendo competitivas. Este evento puso de relieve la importancia crítica de los datos en la estrategia y las operaciones empresariales contemporáneas.

Data for Better Business

 

 

Migración Big Data on premise a la nube de AWS. Retos y Oportunidades.

Con Luis Enrique Alonso | Head of Engineering AI Factory Spain | BBVA

En el marco de su estrategia de transformación digital, BBVA ha presentado recientemente un ambicioso proyecto que marca un nuevo hito en su evolución tecnológica: la migración de su entorno informacional y analítico a la nube de Amazon Web Services (AWS). Durante la presentación, la entidad bancaria compartió los principales retos y palancas que está impulsando para alcanzar este objetivo, subrayando los beneficios que la nube ofrece en cuanto a escalabilidad, eficiencia y capacidad de innovación.

Los retos identificados en el camino hacia la nube

BBVA ha identificado cinco grandes áreas de desafíos que requieren atención prioritaria en el proceso de migración:

  • Seguridad y Gobierno: La necesidad de un acceso granular a los datos representa un reto crucial. En un contexto en el que la protección de la información es esencial, garantizar que los datos sean seguros y accesibles sólo para quienes cuentan con los permisos adecuados es una prioridad absoluta.
  • Gestión de Operaciones: La migración demanda una infraestructura de alta disponibilidad para asegurar la continuidad del negocio sin interrupciones. Esto incluye minimizar los riesgos asociados a la transición y garantizar la estabilidad de los sistemas.
  • Herramientas Analíticas: Integrar o desarrollar herramientas avanzadas que permitan acelerar el tiempo de comercialización de nuevos productos y servicios es una parte clave del proceso. Este reto apunta a mantener la competitividad y seguir liderando el sector financiero.
  • Aspectos Financieros: La transformación digital implica una inversión significativa, ya que la demanda constante de evolución tecnológica obliga a destinar recursos sustanciales para mantener la vanguardia en el uso de la nube.
  • Flexibilidad en Ingesta y Procesamiento: La capacidad de almacenar y procesar grandes volúmenes de datos de forma eficiente requiere hardware especializado, como GPUs y TPUs, además de soluciones que permitan aislar trabajos críticos para optimizar resultados.

El alcance y las cifras del proyecto

El proyecto de migración de BBVA destaca no solo por su ambición, sino también por las impresionantes cifras que lo respaldan. Actualmente, el banco planea migrar más de:

  • 1 petabyte de datos.
  • 2,000 transmisiones de información.
  • 5,500 entidades de datos.
  • 600 usuarios activos.
  • 30,000 trabajos en proceso.
  • 6,000 motores de cálculo, incluyendo modelos de IA y análisis de capital.
  • 4,500 dashboards operativos.

Premisas fundamentales para el éxito

BBVA ha definido cinco premisas clave que guiarán la ejecución del proyecto:

  • Continuidad: Durante el proceso de migración no se detendrá la evolución de la plataforma.
  • Impacto cero en el negocio: Las áreas de ingeniería se encargarán de migrar todos los procesos productivos, adaptando lo necesario sin interferir en el usuario final
  • Migración del 100% del data center: Todo el entorno será trasladado a la nube.
  • Apagado del data center: La culminación del proyecto contempla la desactivación completa del antiguo centro de datos.
  • BIGBANG: Un enfoque integral y coordinado para llevar a cabo la migración en su totalidad.

Cómo

Las fases del proyecto: del plan a la acción

BBVA ha dividido la migración en varias fases fundamentales, asegurando una transición ordenada y efectiva:

  • Vendor Decision: En esta etapa se toman decisiones clave relacionadas con las transmisiones, almacenamiento, procesamiento, seguridad, analítica, BI, IA, gobernanza de datos, restricciones regulatorias y la ubicación del data center.
  • Housekeeping: Implica la realización de un inventario y limpieza exhaustiva, alineación de versiones de Spark y Kirby, estandarización del código y de los activos analíticos para garantizar consistencia y eficiencia.
  • Migration and Compare: Incluye la copia periódica de datos, comparación y reconciliación de la información, nivelación de datos, validaciones diarias de conteos y rendimiento, comparación masiva de datos entre la nube y los sistemas on-premise, y detección de diferencias para iterar validaciones.
  • Switch On / Switch Off: La fase final contempla el encendido y apagado gradual de los sistemas para garantizar una transición fluida y sin interrupciones.

Value Streams: Ámbitos de ejecución

El proyecto se organiza en torno a "Value Streams", que aseguran una creación y migración eficiente desde diferentes perspectivas clave:

  • Regulatory: Cumplimiento normativo durante todo el proceso.
  • User Migration: Transición fluida de los usuarios hacia el nuevo entorno.
  • Platform: Evolución de la infraestructura base para soportar las operaciones.
  • DataHubs Migration: Migración ordenada de los centros de datos distribuidos.
  • Security & Privacy: Garantizar la protección de los datos y la privacidad.
  • Change Management: Gestión de los cambios asociados para minimizar impactos.

Program Governance: Una gestión sólida y escalonada

La gobernanza del programa se estructura en tres niveles jerárquicos, cada uno con objetivos claros y un enfoque colaborativo que asegura el éxito del proyecto:

  • Nivel Estratégico: Liderado por el "Executive Steering Committee", este nivel se reúne mensualmente para garantizar que el programa esté alineado con los objetivos estratégicos del banco. Este comité está compuesto por altos ejecutivos y líderes clave de BBVA y los proveedores involucrados, asegurando la toma de decisiones estratégicas y la resolución de problemas críticos.
  • Nivel Funcional: Coordinado por el "Migration Review", este nivel opera de manera quincenal. Los propietarios de los "Value Streams" trabajan junto con los stakeholders del proyecto para monitorear riesgos, identificar bloqueos y asegurar el progreso continuo. Este nivel se centra en la colaboración efectiva entre los equipos operativos y los líderes de cada área funcional.
  • Nivel Operacional: A cargo de la "Migration Delivery", este nivel se enfoca en la ejecución diaria y resolución de problemas específicos del programa. Equipos técnicos especializados, liderados por la Oficina de Gestión de Proyectos (PMO), supervisan las actividades diarias, gestionan los recursos necesarios y resuelven cualquier incidencia operativa que pueda surgir. El seguimiento semanal garantiza que los hitos se cumplan de acuerdo con los plazos establecidos.

Cada uno de estos niveles está diseñado para operar de forma sincronizada, asegurando que las decisiones estratégicas se traduzcan en acciones operativas concretas y que los objetivos a largo plazo se alcancen sin comprometer las operaciones diarias del banco.

Aprendizajes

BBVA ha destacado varias lecciones aprendidas durante la ejecución del modelo Big-Bang y el proceso de migración:

  • Éxito del modelo Big-Bang: La ejecución integral y simultánea ha demostrado ser una estrategia efectiva para grandes transformaciones.
  • Inversión en I+D: La investigación y el desarrollo continuo en modelos de TI han sido esenciales para anticiparse a posibles desafíos.
  • Apagado controlado de infraestructuras: La desactivación de sistemas legacy se llevó a cabo con una cuidadosa planificación para minimizar riesgos.
  • Equipos específicos de migración: Contar con equipos especializados ha permitido un enfoque más preciso y eficiente en cada etapa.
  • Centralización de equipos: Desde ingeniería se han migrado todos los procesos, asegurando consistencia y una visión integral.
  • Evolución continua: Tras la primera migración, se ha iniciado una segunda fase de evolución para optimizar la plataforma.
  • Máxima priorización: El enfoque en tareas críticas ha permitido cumplir con plazos exigentes sin comprometer la calidad.
  • Formación continua: El onboarding técnico y de negocio ha sido clave para garantizar que todos los usuarios y equipos puedan adaptarse rápidamente al nuevo entorno.

 

 

Datathon Interno para la mejora en la toma de decisiones.

Con Sonia Ferrero | Chief Data & Analytics Officer | Renfe y Ramón Miranda | EME Head of Innovation | Avanade

¿Por qué un Datahon?

El Datathon Interno se trata de una iniciativa diseñada para mejorar la toma de decisiones dentro de la empresa ferroviaria mediante el uso avanzado de datos. Este proyecto involucró a empleados de diferentes sectores de la empresa en una serie de retos analíticos, con el objetivo de abordar y solucionar problemas relacionados con la dispersión y duplicidad de datos, además de mejorar el acceso a la información a través de la plataforma única de Renfe.

El Datathon se enmarca dentro de un esfuerzo más amplio por integrar soluciones tecnológicas avanzadas en las operaciones diarias y estratégicas de Renfe. Esta estrategia busca no solo optimizar procesos existentes, sino también explorar nuevas vías para incrementar la sostenibilidad, seguridad, eficiencia y accesibilidad de sus servicios ferroviarios. El evento fue más que una competición de habilidades técnicas; representó una oportunidad para fomentar la colaboración interdepartamental y el intercambio de conocimientos, asegurando que las soluciones propuestas estuvieran bien fundamentadas y alineadas con las necesidades operativas y estratégicas de la empresa.

Aspectos clave para el éxito

El Datathon Interno organizado por Renfe y Avanade ha demostrado ser un modelo exitoso para la mejora de procesos y la toma de decisiones basada en datos. Este evento, diseñado no solo como una competencia sino como un proceso integral de aprendizaje y colaboración, estableció varios pilares fundamentales que garantizaron su efectividad.

Primero, el evento se centró en establecer retos claros y alineados con los objetivos estratégicos de la empresa. Esto permitió que los participantes trabajaran con metas concretas que reflejaban las necesidades y prioridades reales de Renfe, asegurando que los resultados obtenidos tuvieran un impacto directo y medible en la organización.

La involucración clave de los stakeholders, desde ejecutivos hasta empleados de diversos departamentos, fue otro aspecto crucial. Este enfoque colaborativo no solo fomentó un ambiente de trabajo en equipo sino que también aseguró la alineación de todos los niveles de la empresa con los objetivos del Datathon. La selección estratégica de los participantes, basada en su motivación y el valor que podían aportar al proyecto, fue esencial para generar ideas innovadoras y soluciones aplicables.

El diseño dinámico del evento también jugó un papel fundamental. La implementación de técnicas de design thinking y la gamificación incentivaron la creatividad y la participación activa de todos los involucrados. Además, se ofrecieron sesiones formativas que proporcionaron a los participantes un entendimiento más profundo de cómo los datos, herramientas y tecnologías emergentes pueden transformar organizaciones, preparándolos para enfrentar y resolver los desafíos presentados de manera efectiva.

Finalmente, la importancia de establecer un tiempo crítico para conclusiones productivas se enfatizó a lo largo del Datathon. Esto permitió que el evento no solo se limitara a la recopilación de ideas, sino que también se concentrara en la concreción y aplicación de las soluciones, asegurando que los esfuerzos invertidos se tradujeran en mejoras reales y duraderas para Renfe.

Impacto del Datathon

El Datathon Interno organizado por Renfe y Avanade ha tenido un impacto considerable en la organización, evidenciado por los resultados y el entusiasmo general de los participantes para repetir la experiencia. Este evento, más allá de ser una competencia, se convirtió en un catalizador para el desarrollo profesional y la innovación interna.

Los participantes enfrentaron un total de 8 desafíos críticos, cada uno originado en diferentes sectores de la empresa, como la oficina del Dato y Trenlab. Los proyectos abordaron desde la optimización de la gestión de la flota hasta la mejora de las comunicaciones con los viajeros, demostrando la versatilidad y el alcance de los datos para resolver problemas complejos y variados.

Una de las métricas de éxito más destacadas del Datathon fue la alta tasa de satisfacción de los participantes, con un impresionante 99.9% expresando su interés en participar en futuras ediciones. Esto subraya no solo el valor percibido del evento en términos de desarrollo personal y profesional, sino también su efectividad en fomentar un ambiente de trabajo colaborativo y dinámico.

Cada equipo, nombrado en honor a figuras históricas reconocidas por sus contribuciones a la ciencia y la exploración, trabajó en retos que no solo buscaban optimizar operaciones internas sino también mejorar la experiencia del cliente. El Datathon no solo promovió la utilización de la plataforma ÚNICA y la transformación digital de Renfe, sino que también sirvió como una piedra angular para futuras iniciativas. Movilizó a equipos de especialistas que, a través de la colaboración y el intercambio de conocimientos, lograron plantear soluciones creativas y efectivas a problemas largamente arraigados.  

 

Contenido generado por IA. Asegúrate de comprobar la precisión

Con Elena Gutiérrez García | Gerente Adjunta | GISS y Ángel del Río | Account Executive | Teradata

La GISS

La Gerencia de Informática de la Seguridad Social (GISS) se posiciona como una entidad crucial en la modernización y digitalización de los servicios públicos en España, trabajando codo con codo con diversas entidades de la Seguridad Social. La misión principal de la GISS es facilitar soluciones digitales avanzadas tanto para ciudadanos como para empresas, garantizando un acceso más ágil y eficiente a los servicios sociales.

El corazón de la estrategia digital de la GISS se articula en torno a varias áreas clave. Por un lado, el Servicio Común de la Seguridad Social que se encarga de centralizar y estandarizar los procesos para optimizar el servicio al usuario. Por otro lado, la Gestión y Administración de las TIC juega un papel fundamental en el manejo eficaz de las tecnologías de la información y comunicación.

Uno de los aspectos más destacados de la GISS es su liderazgo en la transformación digital del sector, no solo implementando tecnologías sino también promoviendo un cambio en la cultura organizativa hacia una más dinámica y adaptativa ante los cambios rápidos del entorno tecnológico. Este liderazgo es vital para asegurar que la Seguridad Social pueda no solo seguir el ritmo de la innovación, sino ser un ejemplo de ella.

Finalmente, la GISS contribuye significativamente a los objetivos de las Estrategias Europeas de Gobernanza Electrónica (EEGG), donde la tecnología se ve como un facilitador clave para alcanzar metas de inclusión y accesibilidad universal. La integración de nuevas tecnologías está permitiendo a la Seguridad Social ofrecer un servicio más personalizado y accesible, marcando un hito en la manera en que los ciudadanos interactúan con el Estado.

Retos planteados

Dentro del marco de la transformación digital que está llevando a cabo la Gerencia de Informática de la Seguridad Social (GISS), se han planteado tres retos esenciales:

  • La detección proactiva de anomalías o desviaciones en los procesos del Instituto Nacional de la Seguridad Social (INSS). Este desafío no solo busca anticiparse a los problemas antes de que afecten a los usuarios, sino también optimizar el rendimiento y la eficiencia del servicio público.
  • El seguimiento continuo de diversos procesos y aplicaciones, lo que permite un control más exhaustivo y una respuesta rápida ante cualquier incidencia.
  • Manejar diferentes orígenes de datos, lo que implica un desafío significativo en términos de integración y análisis de datos. La capacidad de consolidar y utilizar eficazmente esta información es vital para ofrecer un servicio que no solo responda a las necesidades actuales de los ciudadanos, sino que también anticipe futuros requerimientos.

Solución adoptada

En un esfuerzo continuo por mejorar y optimizar los servicios que presta el Instituto Nacional de la Seguridad Social (INSS), la Gerencia de Informática de la Seguridad Social (GISS) ha adoptado una serie de soluciones tecnológicas que reflejan un compromiso firme con la eficiencia y la efectividad. Central a estas iniciativas es el desarrollo de un cuadro de mando integral y la definición de indicadores clave de rendimiento (KPI) específicos para los procesos que tienen un impacto directo en los ciudadanos.

Este cuadro de mando permite a la GISS no solo seguir el desempeño de diversos procesos y aplicaciones en tiempo real, sino también actuar de manera proactiva frente a posibles desviaciones. La monitorización diaria mediante indicadores visualmente intuitivos —valores en verde indican normalidad y valores en rojo alertan sobre anomalías— facilita una rápida respuesta a incidentes, garantizando que los estándares de servicio no se vean comprometidos.

Entre las aplicaciones monitorizadas se encuentran servicios esenciales como prestaciones de jubilación, subsidios de incapacidad temporal, y el Ingreso Mínimo Vital, todos cruciales para el bienestar de los ciudadanos. La volumetría de datos manejados es impresionante, con 15 orígenes de datos diferentes y más de 36,000 registros que reflejan la escala y la complejidad de las operaciones del INSS.

Un logro destacado ha sido el aumento en la eficiencia del trámite de las solicitudes de jubilación. Desde la implementación de la monitorización, el KPI 'Premium de jubilación' ha mostrado un aumento del 6%, un indicativo claro de que la tecnología está teniendo un impacto positivo en la rapidez y precisión de los servicios proporcionados.

Lecciones aprendidas

  • Adopción de metodologías Ágiles: La GISS ha integrado metodologías ágiles en su gestión de proyectos, lo que ha permitido una mayor flexibilidad y adaptabilidad en sus operaciones. 
  • Creación de equipos multidisciplinares: Los equipos de trabajo de la GISS ahora cuentan con profesionales de diversas áreas de especialización. Esta fusión de habilidades y perspectivas ha enriquecido el proceso de toma de decisiones y ha aumentado la innovación al enfrentar desafíos tecnológicos.
  • Clara definición del alcance: Determinar claramente el alcance de cada proyecto desde el inicio ha sido clave para la GISS. Esto incluye establecer objetivos precisos, expectativas y los resultados esperados.
  • Gobierno de Datos: La importancia de administrar adecuadamente los datos ha sido una lección crucial. La GISS ha implementado políticas de gobernanza de datos para asegurar la calidad, la seguridad y la integridad de la información que gestionan.

 

Plataforma GenAI para transformar la relación con cliente en sector Telco

Con Marc Siry | Strategic Partnerships - Telco Ecosystem Partnerships | Meta (Facebook) e Ignacio Hafner | Managing Director and Partner |  Líder de Tecnología y Data en Iberia | BCG

GenAI, la mayor oportunidad para las Telcos

El sector de las telecomunicaciones se encuentra ante una revolución potencial con la integración de la Inteligencia Artificial Generativa. Esta tecnología promete transformar el panorama actual, ofreciendo a las empresas de telecomunicaciones una oportunidad sin precedentes para optimizar sus operaciones y maximizar su rentabilidad.

Según Meta y BCG, la implementación de GenAI podría reducir los gastos operativos de las compañías de telecomunicaciones hasta en un 30%, mientras que los ingresos podrían incrementarse en un 20%. Este notable aumento en la eficiencia no solo mejoraría la salud financiera de estas empresas, sino que también aceleraría su crecimiento al doblar el EBIT en comparación con las cifras actuales.

La clave para desbloquear el 90% del valor potencial de GenAI radica en realizar transformaciones a medida. A diferencia de las soluciones genéricas de IA, que solo contribuyen al 10% del potencial total, estas adaptaciones específicas permiten una integración más profunda y efectiva de la tecnología en las operaciones diarias de las telecomunicaciones, asegurando así un cumplimiento normativo y una respuesta más ágil a las necesidades del mercado.

Para alcanzar este máximo potencial, es necesario un viaje estratégico de unos cinco años que incluye dominar la tecnología emergente y fomentar una transformación cultural dentro de las organizaciones. El primer paso es adquirir una comprensión profunda de GenAI, adaptándola específicamente a las necesidades y desafíos del sector telecomunicativo. Esto involucra no solo la adopción de nuevas herramientas, sino también un cambio en la mentalidad corporativa para fomentar la innovación y la adaptabilidad.

Impulsar este cambio no será tarea fácil y requerirá aproximadamente tres años de reimaginación y ajuste de procesos internos. El objetivo final es que las empresas no solo adopten nuevas tecnologías, sino que también se transformen en entidades más ágiles y eficientes, capaces de enfrentar los desafíos del futuro con solidez y creatividad.

Acelerador de GenAI

Meta y BCG se han unido para desarrollar el Acelerador de GenAI, un proyecto que tiene como objetivo integrar la Inteligencia Artificial Generativa, poniendo a la empresa y sus necesidades operativas en el centro de la adopción tecnológica, asegurando que las soluciones no solo sean avanzadas, sino también plenamente compatibles y funcionales dentro del marco empresarial existente.

El Acelerador de GenAI se construye sobre tres pilares fundamentales: tecnología preparada para la empresa, compatibilidad integrada y una perspectiva centrada en los negocios. Este enfoque tridimensional garantiza que la implementación de la IA no sólo sea técnicamente viable, sino también directamente aplicable y beneficiosa para los procesos de negocio diarios.

Agentes virtuales

La interacción con clientes ha dado un salto cualitativo con la implementación de agentes virtuales capaces de comunicarse con una naturalidad y profundidad sorprendentemente humanas. Este avance tecnológico promete transformar el servicio al cliente, reduciendo costes mientras mejora la calidad y eficiencia de la atención.

El proceso comienza con un detector de intención, una herramienta clave que interpreta las necesidades del cliente y guía la conversación hacia los resultados deseados. Esta información es procesada por un orquestador, que gestiona múltiples bots especializados para manejar diferentes aspectos de la consulta del cliente, desde preguntas generales hasta temas más complejos que requieren un enfoque especializado.

Una característica distintiva de este nuevo sistema es su capacidad para ofrecer una comprensión profunda del cliente, lo que permite interacciones más personalizadas y eficaces. Además, las conversaciones fluyen de manera más natural y los tonos de voz de los agentes virtuales son increíblemente similares a los humanos, lo que hace de la llamada una experiencia más confortable y menos mecánica para el usuario.

En situaciones donde se requiere una atención más detallada o específica, el sistema está diseñado para transferir sin problemas al cliente a un especialista humano. Este especialista tiene acceso a un corpus de conocimiento extenso y a APIs que permiten una integración fluida de la información del cliente, garantizando una transición eficaz y coherente en el manejo del caso.

Además, estos agentes virtuales están equipados con APIs para generar tickets, iniciar procesos y administrar flujos de trabajo, lo que asegura que cada interacción sea tan productiva como sea posible. Esta tecnología no solo está estableciendo nuevos estándares en términos de eficiencia de costes en el servicio al cliente, sino que también está redefiniendo las expectativas de los clientes sobre cómo debe ser una experiencia de servicio al cliente en la era digital.

Desafíos a considerar

  • Valor de la aceleración: El primer desafío radica en cuantificar y comunicar claramente el valor que GenAI puede aportar al acelerar el despliegue de soluciones tecnológicas avanzadas. Es esencial que las empresas comprendan cómo la adopción de GenAI puede traducirse en mejoras tangibles en eficiencia y productividad.
  • Orientación a valor y mejora continua del motor conversacional: La tecnología debe ser no solo adoptada, sino también continuamente mejorada para adaptarse a las necesidades cambiantes del negocio. Esto implica una inversión en el desarrollo del motor conversacional que permita interacciones más fluidas y naturales con los usuarios.
  • Relevancia de de-risking y convencimiento al negocio: Otro aspecto crítico es el de-risking, o minimización de riesgos, y cómo las empresas pueden ser convencidas de la seguridad y la viabilidad de implementar GenAI. La transparencia en las prácticas de seguridad y la claridad en los beneficios empresariales son fundamentales para obtener el respaldo corporativo.
  • Complejidad en el escalado: Escalar soluciones de GenAI con eficiencia y certeza implica desafíos significativos debido a la complejidad de las operaciones y la necesidad de un diseño adecuado de plataforma y entornos operativos.
  • Enriquecimiento y personalización de conversación con datos propios (1st party data): Finalmente, el uso de datos propios para enriquecer y personalizar las conversaciones es esencial para ofrecer una experiencia de usuario auténticamente relevante y valiosa. Las empresas deben garantizar que tienen acceso a datos precisos y actualizados que permitan a GenAI operar con la máxima eficacia.

 

Data Virtualization ING Experience

Con Fernando Lipúzcoa | CDO | ING

Fueling Innovation: future-proof Data to drive business growth

En el momento en el que nos encontramos, los datos son uno de los recursos más valiosos para las empresas. ING y Denodo nos invitan a imaginar cómo los datos, al igual que los ingredientes en la cocina, pueden ser manipulados y mejorados para crear soluciones que impulsen el crecimiento y la innovación en los negocios.

  • Plataforma: conformada por las herramientas más finas para preservar la calidad y el sabor de los datos. Infraestructura tecnológica y software de alta calidad, diseñados para manejar y procesar datos sin comprometer su integridad.
  • Vitamina: el término vitamina se refiere al metadato, crucial para transformar los datos brutos en algo que tiene valor comercial real. Al igual que las vitaminas son esenciales para la salud, los metadatos son indispensables para la utilidad de los datos.
  • Mesh: sirve para empoderar a los equipos para crear soluciones a medida con datos. Esto puede interpretarse como la colaboración y la personalización en el uso de datos para atender las necesidades específicas dentro de la empresa.
  • Data como ingrediente: los datos son señalados como el ingrediente más valioso, lo que refuerza la idea de que son la base sobre la cual se construyen todas las operaciones y decisiones empresariales.

Esta representación destaca cómo una gestión de datos sofisticada y bien estructurada puede ser la clave para desbloquear el potencial de innovación dentro de una organización, asegurando que cada decisión y estrategia esté bien informada y sea efectiva.

Periodo de transición y sus retos 

ING está navegando un período de transición clave en la gestión de datos con el objetivo de impulsar el crecimiento del negocio y responder eficientemente a las demandas del mercado. A través de una estrategia bien estructurada, la entidad está enfrentando desafíos y aprovechando oportunidades en el ámbito de los datos para optimizar sus operaciones y mejorar la experiencia del cliente.

La estrategia de ING se centra en una evolución continua desde los sistemas de registros básicos hasta la creación de productos de datos sofisticados, destinados a satisfacer las necesidades de diversos consumidores de datos dentro y fuera de la organización.

  • Sistemas de Registros: La base de la estrategia de datos de ING comienza con la recopilación efectiva y precisa de datos desde múltiples puntos de contacto y transacciones dentro de la empresa. Estos datos forman la columna vertebral de la información que se procesará y analizará más adelante.
  • Data Warehouse: Los datos recopilados se organizan en un almacén de datos donde se estructuran, limpian y preparan para un análisis más detallado. Este paso es crucial para asegurar que los datos estén listos para ser utilizados de manera efectiva en las etapas posteriores del proceso.
  • Data Lake: ING utiliza lagos de datos para almacenar grandes volúmenes de información en su forma más bruta, incluyendo datos no estructurados. Esta capacidad permite a la entidad realizar análisis de big data y obtener insights que no serían posibles con datos altamente estructurados.
  • Data Products: Los datos procesados se transforman en productos que agregan valor tangible al negocio. Estos productos ayudan a la toma de decisiones estratégicas, optimizan las operaciones y mejoran las interacciones con los clientes.

Los productos de datos resultantes de este flujo están diseñados para servir a varios grupos clave:

  • Obligaciones de Reporte: ING cumple con todas las normativas y obligaciones de reporte, utilizando datos precisos y actualizados que aseguran la transparencia y el cumplimiento regulatorio.
  • Negocio: Los diversos departamentos de ING, desde finanzas hasta marketing, utilizan estos datos para tomar decisiones informadas que apoyan la eficiencia operativa y la innovación estratégica.
  • Clientes: Finalmente, los clientes de ING se benefician directamente de esta estrategia de datos. La información analizada permite a la entidad personalizar servicios, mejorar la experiencia del usuario y anticipar las necesidades del cliente, fortaleciendo la lealtad y la satisfacción.

Data Virtualization

ING ha adoptado la virtualización de datos como una estrategia clave para mejorar la accesibilidad y la eficiencia en el uso de sus recursos informativos y se ha apoyado en la solución de Denodo para llevarlo a cabo. La virtualización de datos se ha convertido en un componente fundamental en la estrategia de datos de ING debido a varios desafíos críticos:

  • Datos dispersos: ING maneja datos procedentes de múltiples fuentes, lo cual complica su acceso y gestión. La virtualización de datos permite integrar esta información dispersa en un punto común de consumo sin la necesidad de procesos ETL (Extract, Transform, Load) tradicionales, ni replicación de datos.
  • Interoperabilidad: La capacidad de combinar datos de diversas fuentes en un único punto de consumo es crucial. Esto no solo mejora la interoperabilidad entre distintos sistemas y plataformas dentro de ING, sino que también facilita una vista más holística y coherente de la información corporativa.
  • Adopción por los consumidores: Al exponer los datos en formatos de "Data Product", Denodo acelera la adopción de esta información por parte de los usuarios finales. Esto se traduce en una mejor comprensión y un uso más efectivo de los datos en las decisiones diarias y estratégicas.
  • Valorización del dato: Un aspecto crucial es el entendimiento del valor que los datos aportan a la organización. Denodo facilita un lugar común para monitorear la utilización de los datos por dominios, ofreciendo un modelo de costes justo.

La implementación de la virtualización de datos en ING ha alcanzado un estado actual que refleja tanto la madurez tecnológica como la eficiencia operativa de la organización. Gracias a la solución de Denodo, ING ha logrado crear un entorno donde la integración, el acceso y la gestión de datos se realizan de manera fluida y eficiente, apoyando así una amplia gama de necesidades de consumo de datos.

Estado actual de la virtualización de datos en ING

  • Integración de múltiples fuentes: ING integra datos de diversas fuentes, incluyendo Data Warehouses, Data Lakes ubicados en la nube privada de ING y otras fuentes externas. La plataforma de Denodo facilita la consolidación de estos datos dispares en una capa de integración única, permitiendo un acceso centralizado y coherente a los datos.
  • Capa semántica y reutilización de políticas: un aspecto clave en la estrategia de virtualización de datos de ING es el uso de una capa semántica común, que minimiza el impacto de la integración en los usuarios finales de datos. Esto permite que los usuarios de negocio, sin conocimientos técnicos profundos, puedan acceder y manipular los datos fácilmente. Además, las políticas internas de gestión de acceso e identidad (IAM) son reutilizables dentro de Denodo, lo que mejora la seguridad y la gobernanza de los datos.
  • Mejora del rendimiento mediante el uso de cachés, lo que acelera la recuperación de datos y optimiza la experiencia del usuario final. Además, la introducción de API como nuevo patrón de consumo de datos subraya la transición hacia interfaces más modernas y accesibles, facilitando la integración de datos en aplicaciones y procesos de negocio.

Looking ahead

En la vanguardia de la tecnología y la innovación, ING continúa expandiendo sus horizontes en la gestión y el procesamiento de datos. Mirando hacia el futuro, la entidad financiera tiene planes ambiciosos para integrar y optimizar aún más sus capacidades digitales, destacándose las siguientes áreas clave:

  • Cloud pública: ING planea ampliar su uso de fuentes de datos ubicadas en la nube pública. Esto facilitará la escalabilidad y la flexibilidad en el manejo de grandes volúmenes de datos.
    MPP para mejorar el rendimiento: El uso de sistemas de procesamiento masivo paralelo (MPP) es otra área de enfoque. Estos sistemas están diseñados para mejorar el rendimiento de las operaciones de datos a gran escala, permitiendo un análisis más rápido y eficiente.
  • Chatbots de lenguaje natural: ING también está explorando el desarrollo de chatbots basados en procesamiento de lenguaje natural. Estos chatbots mejoran la interacción con los clientes al proporcionar respuestas instantáneas y precisas a las consultas.
  • Data Masking: esta técnica permite que la entidad proteja la información sensible, asegurando que los detalles personales y financieros de los clientes se mantengan seguros mientras se utiliza la información para análisis y procesamiento.

The journey with Denodo

ING reconoce que la virtualización de datos es fundamental para su estrategia de datos. No es simplemente un proyecto, sino una herramienta esencial que permite a la organización ser más ágil y eficiente en el manejo de datos. Esta perspectiva asegura que la virtualización de datos se maneje con la importancia estratégica que requiere, integrándola profundamente en las operaciones diarias y los objetivos a largo plazo de ING.

La selección de las herramientas correctas es crucial para el éxito de la virtualización de datos. ING pone un énfasis particular en elegir las soluciones adecuadas que no solo se alinean con su arquitectura de datos existente, sino que también soportan sus políticas y los retos de implementación. Esto incluye una evaluación cuidadosa de las características tecnológicas y la capacidad de las herramientas para integrarse sin problemas con los sistemas existentes.

Denodo ha jugado un papel instrumental no solo proporcionando la tecnología, sino también apoyando a ING a través del proceso de implementación con sesiones de asesoramiento específicas. Estas sesiones aseguran que ING pueda maximizar el potencial de la plataforma Denodo y abordar cualquier desafío técnico o de gestión que pueda surgir durante la implementación.

Desde el inicio del proyecto, ING ha implementado caché para mejorar el rendimiento de la virtualización de datos. Esto es fundamental para asegurar que el acceso a los datos sea rápido y eficiente. Por último, considerar un marco de riesgo IT es imperativo para una implementación realista y exitosa. ING tiene en cuenta los riesgos tecnológicos y de seguridad al implementar la virtualización de datos, asegurándose de que todas las prácticas estén en línea con las mejores prácticas de seguridad y cumplimiento.