La llegada de la IA está transformando los fundamentos mismos del funcionamiento de las empresas, redefiniendo en muchos casos la forma en que las empresas innovan, operan y compiten. ¿Estamos preparados para adoptar un nuevo enfoque de la transformación digital en la era de la IA que posicione a nuestras empresas para el éxito en el futuro? Este artículo resume los debates de la última reunión del Programa Quest, celebrada el 28 de mayo de 2025 en Madrid, en la que más de 70 líderes digitales analizaron si los modelos operativos actuales se adaptan a las exigencias de la IA y cómo aprovechar su poder transformador.
Con Rocío López Valladolid | CIO | ING España y Portugal y Rosario Aguilar | COO | ING España y Portugal
Durante AI Quest 2025, ING presentó su visión sobre los nuevos paradigmas de atención al cliente en el sector bancario. Una estrategia que busca transformar la relación con los usuarios a través de la tecnología, combinando eficiencia, cercanía y confianza.
El punto de partida es claro: la disrupción tecnológica debe convivir con la privacidad y la seguridad de los datos. Para ING, innovar no puede significar poner en riesgo la confianza de sus clientes. Al mismo tiempo, la tecnología se concibe como un acelerador del negocio, capaz de ofrecer escalabilidad y reducir los tiempos de salida al mercado, dos factores decisivos en un sector altamente competitivo.
Otro eje de esta transformación es la inteligencia artificial, entendida como un apoyo y nunca como un sustituto del factor humano. ING subraya que el objetivo no es reemplazar la interacción con las personas, sino mejorarla y enriquecerla, obteniendo resultados más prometedores que conecten de forma genuina con los clientes.
Un ejemplo ilustrativo es la evolución de los chatbots. Frente a los modelos tradicionales, que ofrecen respuestas largas y rígidas sin posibilidad de interacción adicional, los nuevos GenAI Bots aportan una experiencia más natural. Estos sistemas responden con información concreta, permiten que el cliente profundice con nuevas preguntas y, además, ajustan su lenguaje para dar la sensación de una conversación real. De este modo, se reduce la fricción en el diálogo y se construye una relación más fluida y cercana.
La arquitectura técnica que hace posible este modelo combina Natural Language Understanding y Large Language Models, integrados a través de plataformas como Dialogflow. El diseño contempla rutas específicas según el tipo de consulta: un bot entrenado con información curada responde a cuestiones recurrentes, mientras que un modelo de lenguaje avanzado se activa para dar soporte a preguntas más complejas. En caso de que el usuario requiera atención personalizada, siempre existe la opción de derivar la conversación a un agente humano, garantizando que ninguna necesidad quede desatendida.
Visión de la IA y aplicaciones en desarrollo
ING también abordó cómo está construyendo su visión sobre la inteligencia artificial y los pasos que ya ha dado para ponerla al servicio del cliente. Desde finales de 2022, la entidad inició un recorrido en el que la incorporación de lingüistas computacionales, el lanzamiento de chatbots con IA tradicional y, más recientemente, el despliegue de pilotos con IA generativa han marcado un antes y un después en la forma de interactuar con los usuarios. El calendario avanza con hitos claros: en julio de 2024 se probó el chatbot con IA Generativa en un segmento reducido de clientes y, en diciembre de ese mismo año, se extendió su lanzamiento de manera más amplia.
Las aplicaciones de la IA en ING no se limitan a los canales de atención asistida. La entidad también la aprovecha en el desarrollo y análisis de código, en estrategias de marketing con comunicaciones más personalizadas y, por supuesto, en los chatbots que ya forman parte de la experiencia de cliente. En todos los casos, la tecnología se pone al servicio de la eficiencia y de la capacidad de respuesta.
Sin embargo, ING también reconoce los desafíos que plantea esta transformación. Entre los principales retos figuran la correcta configuración de equipos multidisciplinares, la gestión de posibles “alucinaciones” en los modelos de IA —es decir, respuestas imprecisas o inventadas— y la adaptación a los diferentes comportamientos de los clientes. Asumir estos obstáculos con realismo resulta esencial para seguir avanzando hacia un modelo de atención que sea fiable, seguro y realmente útil.
Experiencias Wow de cliente in practice
La presentación incluyó también ejemplos reales de conversaciones mantenidas entre clientes y el chatbot de ING, que reflejan cómo esta tecnología ya se ha integrado en la atención cotidiana. Las interacciones muestran un estilo cercano, resolutivo y adaptado a cada necesidad: desde la apertura de una cuenta sin comisiones o la explicación sobre la tarjeta virtual, hasta dudas sobre transferencias, límites operativos o el ingreso de cheques de otras entidades.
El chatbot no solo ofrece respuestas claras y concisas, sino que también es capaz de guiar al usuario en trámites más complejos, como el envío de cheques por correo, aportando información práctica y tiempos estimados. En casos donde la IA no dispone de datos suficientes, reconoce la limitación y anima al cliente a reformular su consulta, mostrando transparencia en el proceso.
Estos ejemplos ponen en valor cómo la inteligencia artificial aplicada a la atención bancaria no se queda en lo superficial, sino que resuelve situaciones concretas y frecuentes en el día a día de los clientes. Además, humaniza la conversación con un lenguaje más natural y cercano, introduciendo incluso guiños empáticos —como emoticonos— para reforzar la sensación de cercanía.
Comunicaciones personalizadas
Otro de los puntos destacados de la presentación fue el papel de la IA en la creación de comunicaciones personalizadas. Se mostraron ejemplos concretos de cómo, a partir de las interacciones con el cliente, los sistemas inteligentes son capaces de generar respuestas claras y sencillas que enlazan de forma directa con productos como la Cuenta NARANJA, ofreciendo un acompañamiento más didáctico y accesible. Este enfoque no solo mejora la experiencia de usuario, sino que también refuerza la eficiencia comercial al conectar necesidades con soluciones de manera natural.
ING subrayó además la importancia del trabajo en equipo en este proceso. Bajo la idea de “Teamwork makes the dreamwork”, la entidad destacó que se trata de un proyecto global con fuerte arraigo local, en el que colaboran expertos de diferentes países y perfiles. La cooperación constante con especialistas externos y la mejora continua son claves para que la IA no se limite a ser una herramienta tecnológica, sino un recurso vivo que evoluciona con las expectativas de los clientes y las exigencias del mercado.
Por último, se recalcó que esta transformación es también un camino de aprendizaje. Implementar IA en banca implica avanzar de forma gradual, ajustando procesos, afinando modelos y respondiendo a retos que van desde la adaptación de equipos hasta la gestión de comportamientos de cliente. Para ING, el objetivo es claro: mantener la innovación al servicio de la confianza, la cercanía y la simplicidad, pilares que seguirán guiando el futuro de su relación con los usuarios.
Con Jesús Oliva | Head of Data Science & AI | Moeve
De la teoría a la práctica
En AI Quest 2025, Moeve puso los pies en la tierra: en teoría, la IA generativa “vale para todo”; en la práctica, cuando la pregunta es técnica y específica, un modelo genérico puede equivocarse, inventar datos o confundir unidades.
Sobre esa base, Moeve presentó IngenIA, un agente diseñado para consultar especificaciones y estándares aplicables a tuberías, instalaciones y procesos industriales. Su propuesta de valor se sostiene en cuatro pilares: interpreta documentación compleja; ofrece respuestas claras y contrastables; proporciona el enlace al documento consultado; y resuelve dudas técnicas en lenguaje natural. Para medir el impacto, el equipo destacó tres indicadores de seguimiento: volumen de documentos y páginas incorporadas, tipología de documentos y número de preguntas mensuales.
El mensaje de fondo es práctico: convertir bibliotecas técnicas dispersas en un sistema de consulta fiable, que ahorra tiempo a los ingenieros y reduce errores al trabajar siempre “con el estándar en la mano”.
Lección 1: Modularidad
El primer choque con la realidad llegó al intentar “leer” los estándares. No era una única tabla limpia, sino 24 tablas similares, repartidas en varias páginas, con encabezados anidados y, sobre todo, con el contexto metido en la cabecera (cada cabecera distinta según material, rating, saltos, etc.). Con ese formato, un LLM genérico o una extracción tabular “de una pasada” fallan: pierde el contexto, mezcla columnas o responde con medias verdades.
La respuesta de Moeve fue modularizar. Esa modularidad se refleja en la arquitectura: un flujo de carga y procesamiento de datos con funciones serverless que extraen y limpian la información, almacenamiento intermedio, bases de datos para persistir la versión “canónica” y una capa de interacción que devuelve la respuesta con trazabilidad hacia el documento fuente. El aprendizaje es claro: antes de pensar en prompts, hay que domar el dato y preservar su contexto; solo así la IA puede contestar con precisión a preguntas tan específicas como las que afronta IngenIA.
Lección 2: Ajuste fino
Moeve desmontó una idea muy extendida: para responder bien no hace falta “el LLM más potente”, sino ponerle el contexto adecuado. “Enviar un cohete a la Luna no es solo potencia”, apuntaron; con la IA pasa lo mismo. La precisión llega cuando aciertas en tres frentes: cómo partes los documentos (chunking), qué embeddings usas y cómo optimizas la recuperación.
Primero, el chunking. Probaron tres enfoques sobre especificaciones reales:
El tamaño del chunk es el otro tornillo: si es demasiado pequeño, el modelo pierde la pista del contexto; si es demasiado grande, entra ruido y el retrieval se vuelve impreciso. El equilibrio se logra midiendo: tasa de aciertos, latency y, sobre todo, si el fragmento recuperado explica de verdad la respuesta.
La conclusión es práctica: antes de gastar más potencia de cómputo, ajusta el contexto. Con una estrategia de chunking adecuada, embeddings que entienden el dominio y un retrieval afinado, un modelo generalista se convierte en un especialista fiable para preguntas técnicas.
Lección 3: Evaluación
Como en el programa Saturn V, el avance no llegó por un “salto de fe”, sino por un ciclo continuo de pruebas y medición. Moeve reconoce que, al principio, cayó en una tentación habitual: basarse solo en el feedback humano. Útil para arrancar, sí, pero insuficiente para un sistema que debe responder siempre igual ante la misma consulta. El juicio humano no siempre es preciso, rara vez es concluyente y, sobre todo, no escala.
La respuesta fue montar una evaluación sistemática con dos claves:
Construyeron un conjunto de preguntas representativas y su “verdad terreno” (ground truth) anclada a documento y página. Mezclaron tres orígenes: anotación humana, datos sintéticos para cubrir combinaciones poco frecuentes y un enfoque híbrido que acelera la cobertura sin perder rigor. El dataset contempla distintos formatos de respuesta —texto general, frases concisas, bullet points y tablas— porque así es como aparecen los estándares.
Tres indicadores guían el diagnóstico:
Con esta batería se puede localizar el fallo: si el retrieval es bajo, el problema está en la búsqueda o el chunking; si el retrieval es alto pero la correctness cae, el modelo no interpretó bien la tabla o las unidades; si falla la faithfulness, hay riesgo de alucinación. Además, la evaluación cuantitativa permite comparar configuraciones y modelos y elegir el LLM óptimo en coste y rendimiento, con evidencia y no por intuición.
La lección es nítida: sin un marco de evaluación, la mejora es opinable; con él, es medible, repetible y escalable. Así es como IngenIA pasa de prometer precisión a demostrarla.
Lección 4: Mejora continua
Si el Saturn V llegó a la Luna fue, entre otras cosas, porque cada vuelo generó y analizó montañas de datos —cientos de miles de carretes, decenas de miles de fotografías, terabytes de información— que alimentaron el siguiente ajuste. IngenIA adopta esa misma lógica: instrumentar para aprender.
Moeve ha incorporado un módulo de monitorización que convierte el uso del asistente en señales accionables. En su panel se ve, de un vistazo, cuántos usuarios han interactuado, cuántas preguntas se han hecho en un periodo y el detalle de cada consulta. Con esa telemetría cubren cuatro frentes:
El resultado es un ciclo de aprendizaje continuo: medir → diagnosticar → actuar → volver a medir. Igual que en el programa lunar, la mejora no se deja a la intuición; se demuestra con datos.
Resultados IngenIA
IngenIA ya funciona como un asistente especializado que abre acceso multilingüe a estándares y especificaciones y contesta con solvencia a preguntas que combinan datos, texto y tablas. Además, ofrece resúmenes e interpretación, lo que facilita entender la información sin perder el detalle técnico.
Los indicadores de uso apuntalan ese desempeño:
Con estos resultados, la idea inicial se confirma: para preguntas técnicas, un agente diseñado para el dominio—con respuestas contrastables y apoyo en la documentación—aporta valor inmediato y consistente. IngenIA demuestra que, cuando el reto es de precisión, el camino pasa por contexto y método.
Con Xabier Muruaga | Global Head of AI Center | Iberdrola
Iberdrola’s generative AI journey
El mensaje de partida es claro: la adopción de IA generativa sigue en una fase temprana. Según Gartner, la mayor parte de las organizaciones está todavía “experimentando”, un grupo menor ha pasado a pilotos internos, muy pocas trabajan con pilotos externos o en producción, y aún hay un porcentaje relevante que no se reconoce en ninguna de estas categorías. Un mapa de situación que explica por qué hablar hoy de escala —y no solo de pruebas— es el punto crítico.
En este contexto, Iberdrola dibuja su propio recorrido hacia la IA generativa con una hoja de ruta progresiva: Experimentación → Escala → Transformación. El viaje arranca en el tercer trimestre de 2023 y se proyecta hasta 2026, con una curva de madurez ascendente que refleja la construcción paulatina de capacidades.
La compañía sitúa el presente del programa “en el tramo de escala”, a medio camino entre las pruebas iniciales y la transformación del negocio. La lectura es nítida: tras validar casos de uso y conformar los primeros equipos, el foco pasa a extender lo que funciona, aumentar el alcance y consolidar prácticas que preparen el salto a un estadio transformacional.
Iberdrola’s AI adoption model
Iberdrola ordena su adopción de IA en un modelo operativo claro que va de extremo a extremo: discovery, despliegue y operaciones. El punto de partida es identificar oportunidades con un opportunity map/scanning, alimentado por un “industry idea book” y discovery workshops. Después llega la evaluación inicial, apoyada en arquetipos predefinidos y plantillas de valor de negocio para estimar impacto y viabilidad.
Con esa base, la organización pasa a priorizar y trazar la hoja de ruta: opportunity priority y use case roadmap marcan el orden de ataque. El siguiente hito es la plan inception, con definición detallada del alcance (x5) y program management para gobernar el avance. En diseño e ingeniería se decide la selección de modelos y se consolidan servicios y arquitectura.
El bloque de deploy se apoya en dos pilares: aprovisionamiento de plataforma y seguridad/escalabilidad. Antes de poner casos en manos del negocio, se realiza un test de resiliencia y se activan guardarraíles & Responsible AI (RAI) como salvaguardas técnicas y de uso. En operar y evolucionar, la prioridad es la monitorización continua y FinOps para controlar costes y optimizar consumo.
Todo el ciclo está sostenido por dos corrientes transversales: la AI Platform (infraestructura y servicios comunes) y las AI Capabilities (competencias y prácticas), que acompañan de principio a fin para que cada fase herede estándares y reutilice capacidades.
Generative AI techniques landscape
En cuanto a técnicas de IA generativa, Iberdrola dibuja un paisaje que avanza en complejidad, coste y datos desde el uso del LLM “tal cual” (out of the box), pasando por prompt engineering y RAG (Retrieval-Augmented Generation), hasta el fine-tuning/continuous pre-training y, en el extremo, el entrenamiento desde cero. El momento actual de Iberdrola se sitúa en el tramo intermedio de esa curva —entre RAG y el preentrenamiento continuo—, un punto donde el impacto crece, pero también lo hacen las exigencias técnicas y operativas.
Building AI Platforms
Iberdrola da un paso más y construye plataformas de IA para industrializar casos de uso. La ambición está definida: acelerar el despliegue en negocios globales, garantizar un consumo privado y seguro de modelos, habilitar la personalización de la plataforma y la reutilización de componentes, y servir IA Responsable por diseño mediante guardarraíles. Todo ello sobre una base multicloud (AWS y Azure) y con un ecosistema abierto a los principales proveedores de modelos (OpenAI, Anthropic, Cohere, Amazon, AI21 Labs, Stability.ai, Meta y Mistral AI).
La arquitectura se organiza en tres capas:
El resultado es una plataforma corporativa que estandariza el acceso a modelos, incorpora control y trazabilidad desde el primer día y permite escalar casos de uso con seguridad y gobierno.
Adopting AI Capabilities
Post Call Analytics
El centro de atención al cliente en España gestiona 8 millones de llamadas al año, con un tiempo medio de manejo de 7 minutos y puntas de hasta 2.000 llamadas por hora. Con estos volúmenes, la prioridad es triple: reducir el AHT de 7 a 5 minutos (-25%) automatizando la generación de insights, mejorar la calidad del análisis de llamadas y ofrecer información en tiempo real que permita actuar de inmediato para elevar la satisfacción del cliente.
La respuesta pasa por IA generativa para transcribir, resumir y clasificar cada conversación y convertirla en información útil al instante. El reto de escala es evidente: 56 millones de minutos de audio al año. Para afrontarlo, se ha evaluado Whisper como motor de speech-to-text, comparando un esquema pay-as-you-go con Azure AI Speech frente a una alternativa self-hosted sobre 14 GPU NVIDIA Tesla T4; esta última aporta una reducción de costes del 70%.
El flujo técnico está orquestado sobre Azure. Las llamadas entrantes y salientes (Genesys Cloud) se extraen y guardan en Azure Storage (audio); el bloque de speech-to-text corre con Whisper sobre GPU; las transcripciones se vuelcan en Azure Storage (texto) y, a partir de ahí, un servicio de call analytics genera insights que se persisten en base de datos. La orquestación se apoya en AKS, mientras que el acceso a modelos y prompts se gestiona con LangChain, LiteLLM y un Prompt Repository, con balanceo/ruteo entre endpoints. La observabilidad y la trazabilidad del sistema se cubren con Langfuse, y se contemplan despliegues por país (por ejemplo, Francia, Suecia y Suiza) con GPT-4o-mini, alineando operación y gobierno con necesidades locales.
What’s Next?
El siguiente paso apunta a sistemas agénticos: soluciones donde los agentes de IA no solo responden, sino que planifican y actúan. Para hacerlo, combinan memoria a corto y largo plazo, lo que les permite aprender del contexto y de interacciones previas; acceden a herramientas —calendario, calculadora, intérprete de código, buscador—; y ejecutan ciclos de acción guiados por un módulo de planificación.
Estos agentes incorporan además bucles de reflexión y autocrítica, trabajan con cadenas de razonamiento y son capaces de descomponer objetivos en sub-tareas. Traducido al día a día: pasar de respuestas puntuales a flujos autónomos que consultan fuentes, calculan, programan, validan lo obtenido y mejoran con cada iteración. Es el movimiento natural tras la fase de escala: dotar a la IA de capacidad operativa y mejora continua para abordar casos de uso más complejos con seguridad y control.
Con Nicolás Álvarez | Coordinador de proyectos de Accesibilidad Tecnológica | Fundación ONCE y David Torres | Experience Design Technical Manager | NTT DATA
La soledad no deseada es un problema más extendido de lo que pensamos. El 93,3% de la sociedad la percibe como un problema invisible, algo que sucede en silencio y que rara vez aparece en la conversación pública.
Además, no es un mal pasajero. Dos de cada tres personas que la padecen llevan más de dos años en esa situación. La experiencia se prolonga en el tiempo y se convierte en parte de la rutina, con el desgaste que eso implica para la vida diaria.
El impacto es aún mayor en las personas con discapacidad. La mitad (50%) afirma sentirse sola, un 30% por encima de la media nacional. La brecha es clara y pide respuestas específicas. Estas cifras, compartidas por NTT DATA y Fundación ONCE, dibujan el punto de partida: reconocer la magnitud del problema para poder actuar con soluciones que lleguen a quien más lo necesita.
Misión
Ante este diagnóstico, NTT DATA y Fundación ONCE plantean una misión clara: demostrar que la IA generativa puede reducir la soledad no deseada en personas con discapacidad. Para ello, proponen trabajar con resultados clave y la creación de un journey map que guíe soluciones accesibles, inclusivas y éticas desde el primer contacto hasta el acompañamiento continuo.
La premisa de diseño es igual de explícita: una IA con propósito puede convertirse en un puente que supere barreras invisibles. Eso exige construirla con criterios firmes de accesibilidad, transparencia, privacidad y protección de datos, y un respeto real por las relaciones humanas. Solo así la tecnología puede estar a la altura de las personas a las que quiere servir.
Journey Map
El journey map plantea cómo y cuándo la tecnología puede aportar valor real en el día a día, construyendo el puente entre la necesidad y la solución.
Por la mañana, el foco está en soluciones prácticas: ayuda para organizarse y recordatorios que facilitan arrancar el día con menos fricción. En los trayectos, la propuesta pasa por asistencia durante el viaje y contenido personalizado que acompañe y oriente.
En el trabajo, la prioridad es la optimización de tareas y la conexión en entornos híbridos, favoreciendo dinámicas más fluidas. Ya por la tarde y enfocándose en el ocio, la IA actúa como impulso para socializar y explorar actividades nuevas, ampliando oportunidades de contacto.
Al caer la noche, la herramienta se orienta a la reflexión, el apoyo emocional y el bienestar. Y en los fines de semana, se propone la planificación de actividades accesibles y personalizadas, para que cada persona encuentre opciones ajustadas a sus intereses y posibilidades.
La IA se convierte en mucho más
La propuesta va más allá de la tecnología por sí misma. La IA se convierte en tres cosas a la vez:
Así, el objetivo no es sustituir vínculos, sino reforzarlos con herramientas útiles, cercanas y respetuosas.
El mensaje final de NTT DATA y Fundación ONCE es claro: acercar el mañana para estar más cerca unos de otros. La IA, bien planteada, puede ser un aliado estratégico que se adapta a las rutinas diarias para complementar, motivar y ofrecer apoyo emocional.
Para que funcione, la confianza es decisiva: educación, transparencia y diseño ético son las bases de una adopción responsable. Y una idea guía recorre toda la propuesta: la IA es un puente, no un sustituto. Su papel es potenciar las capacidades humanas y nunca reemplazar las conexiones reales que sostienen la vida en comunidad.
Descarga el informe sobre el potencial de la IA generativa aquí