"Reducción de costes, aumento de la satisfacción, automatización a gran escala: la IA generativa promete revolucionar el servicio al cliente. Pero escalar una solución así sin comprometer la reputación de la marca es otra historia completamente distinta. En este artículo, Claudio Torres, Principal Product Manager Data & AI en Thiga España, se adentra en los entresijos del despliegue de un chatbot 100% GenAI en un gigante mundial del retail. Desde el primer prototipo hasta las decenas de millones de conversaciones gestionadas sin el menor incidente, esta es la historia de una industrialización exitosa.
"Imposible. Demasiado arriesgado. Demasiado caro." Eso fue lo que me respondieron cuando propuse por primera vez sustituir nuestro antiguo chatbot por una solución de IA generativa.
Por aquel entonces, yo era Senior Product Manager en uno de los mayores grupos de retail del mundo. Varias marcas de e-commerce, más de un centenar de mercados, millones de clientes cada día... El reto era enorme. Mi responsabilidad era el servicio al cliente, un terreno sensible y costoso en la que cada mejora tenía un impacto inmediato. Pero o permitir que una IA interactuara directamente con los clientes se consideraba un riesgo reputacional demasiado alto.
Un año después, el chatbot que creamos gestiona ahora decenas de millones de conversaciones al año y está implantado en todas las marcas y mercados del grupo. Los costes han disminuido, la satisfacción de los clientes ha aumentado y, lo que es más importante, no se ha registrado ni un solo incidente.
Así demostramos que es posible industrializar la IA generativa a escala en un gran grupo.
Del escepticismo a una apuesta estratégica
Cuando me incorporé al grupo como Senior Product Manager, mi misión estaba clara: mejorar la experiencia digital de varias marcas de e-commerce activas en más de 100 países.
Pronto, el servicio de atención al cliente se convirtió en uno de los puntos neurálgicos de la experiencia de usuario. Cada mejora, por pequeña que fuera, tenía un efecto inmediato en los costes y la fidelización de los clientes. Pero nuestro sistema se apoyaba en un CRM obsoleto y un chatbot basado en reglas que resultaba costoso, poco eficaz y frustrante para los clientes. La tasa de automatización estaba estancada y los costes aumentan.
Los modelos generativos de IA estaban empezando a desarrollarse, así que sugerí que los probáramos. La reacción inicial fue negativa. Entre los riesgos legales, RGPD y la amenaza potencial para la reputación de la marca, los directivos fueron tajantes: el miedo a ver al chatbot hacer un comentario inapropiado era demasiado grande.
Luego vino la explosión mediática en torno a ChatGPT. En pocos meses, la dirección cambió de rumbo: la empresa anunció que quería convertirse en "AI-powered". Todos los departamentos tuvieron que explorar casos de uso, incluido el de atención al cliente. La oportunidad que tanto esperaba, por fin había llegado.
Construyendo el chatbot
En lugar de improvisar un sistema híbrido, me decidí por un chatbot 100% basado en un LLM.
En aquel momento, no había ninguna referencia a escala, ni siquiera en Salesforce, Google o Amazon. Así que no había ningún modelo en el que inspirarse.
Al principio, el equipo estaba formado por dos personas: un ingeniero y yo. Mi papel consistía en definir la visión, convencer a los stakeholders... y pagar el pato si las cosas no funcionaban. Pronto contratamos a un data scientist a tiempo parcial. Durante varios meses trabajamos sin descanso, impulsados por el deseo de ser los primeros en crear un chatbot de este tipo en una gran empresa.
Contrariamente a lo que podría pensarse, no era una cuestión de ego. Industrializar una tecnología disruptiva en un gran grupo es mucho más que un proyecto de atención al cliente: es un acto estratégico que reconfigura la gobernanza, las decisiones presupuestarias y la hoja de ruta de la compañía. Con este proyecto, la IA pasó por fin de ser una demo experimental a convertirse en una infraestructura vital para las operaciones.
Un MVP a prueba de balas
Desde el principio, las limitaciones estaban claras:
-
Reputación: tolerancia cero. Una sola mala respuesta, una captura de pantalla en redes sociales, y el bot sería desconectado en menos de una hora.
-
Costes: nuestro chatbot no debía costar ni un euro más que el sistema anterior. Esto era innegociable.
-
Rendimiento: el chatbot debía automatizar más conversaciones que el sistema anterior.
Para cumplir estas condiciones, nuestro MVP debía ser a prueba de fallos. La tentación, con cualquier tecnología nueva, es ir rápido. Nosotros decidimos hacer lo contrario.
Durante casi tres semanas, no construimos nada. En su lugar, pasamos horas estudiando el comportamiento del modelo y bombardeándolo con consultas ofensivas para comprobar si podía generar respuestas perjudiciales para la reputación de la empresa. Las peticiones eran largas, cortas, a veces rebuscadas, y todas en varios idiomas diferentes. Este enfoque sistemático nos permitió gestionar más de cuarenta idiomas a través de un único proceso, en lugar de mantener docenas de flujos diferentes.
Cuando nuestro chatbot estuvo listo, llegó el momento de probarlo. Para ello, lo abrimos a los empleados del grupo con una única instrucción:"Intentad romperlo". Y pese a todos sus esfuerzos, el chatbot resistió. Solo faltaba una última prueba externa antes del despliegue completo. A día de hoy, no ha habido un solo incidente. Un éxito rotundo.
El despliegue a escala del grupo
Estabilizar el MVP era sólo un paso. Quedaba adaptarlo a las distintas marcas del Grupo, cada una con sus propios procesos e identidad. Tras el éxito del lanzamiento inicial, la complejidad aumentó rápidamente. Nuestro reto era desplegar la solución en múltiples marcas, mercados e idiomas, y hacerlo rápido.
Definimos un enfoque centralizado, escalable y fácil de mantener, acompañando al mismo tiempo el desarrollo de las competencias de los equipos operativos. Por primera vez, el grupo disponía de una forma unificada de gestionar su Asistente Virtual de Atención al Cliente.
Gestionando la política interna
Si el aspecto técnico es difícil, las batallas internas lo son mucho más.
Como equipo de atención al cliente, no teníamos acceso directo a las infraestructuras de producción. Dependíamos de los servidores, claves API y capacidad de cómputo de los equipos de plataforma. Pero estos recursos eran escasos, y asignarlos a un proyecto implicaba quitárselos a otro. Conseguir prioridad exigió negociar una y otra vez.
También recibimos un duro recordatorio presupuestario: era imposible mantener el antiguo y el nuevo chatbot al mismo tiempo. El sistema viejo sería apagado el mismo día del lanzamiento del nuevo. Nuestra red de seguridad desaparecía.
Y el clima interno era tenso. Había varios pilotos de IA en marcha. Aunque algunos equipos deseaban nuestro éxito, la competencia era dura. En el momento en que escribo este artículo, nuestro proyecto sigue siendo el único que llegó a producción.
He aprendido una lección importante que todos los directivos deberían recordar: nunca subestimes la resistencia de tu organización frente a la disrupción.
Hora de hacer balance
Los resultados hablan por sí solos. Los costes son muy inferiores a los del sistema anterior, las operaciones se han simplificado hasta el punto de no necesitar perfiles especializados y la satisfacción del cliente ha aumentado considerablemente. El nivel de automatización casi se ha duplicado con respecto a las soluciones previas. Y para coronarlo: no se ha producido ningún incidente reputacional en más de dos años.
Lo que empezó como una apuesta arriesgada se ha convertido en la columna vertebral del servicio al cliente. Hoy, muchos empleados incluso se preguntan cómo trabajaban antes sin esto. En retrospectiva, veo tres lecciones para cualquier líder que desee implantar la IA generativa a gran escala:
-
Define tus condiciones no negociables. En nuestro caso: coste, riesgo y rendimiento. Sin estos pilares, el proyecto se habría empantanado en compromisos.
-
Invierte tanto en gobernanza como en tecnología. Ganar aliados, navegar por la política interna y conseguir recursos es tan crucial como la ejecución técnica.
-
Diseña pensando en escalabilidad desde el principio. Eso es lo que nos ha permitido pasar rápidamente de un prototipo a una plataforma global.
El verdadero éxito no es "hacer IA". Es haber transformado el servicio al cliente en un activo estratégico: más económico, más rápido, más satisfactorio para los clientes y, sobre todo, diseñado para escalar. En un mundo en el que todas las empresas se proclaman "impulsadas por la IA", la verdadera línea divisoria no es la tecnología en sí, sino su capacidad de industrialización.
Este chatbot no es solo una herramienta de soporte más eficiente: ha reposicionado la relación con el cliente en el corazón del negocio. Reducir costes y reforzar la fidelización significa transformar un centro de coste tradicional en un activo estratégico. Por eso la IA, bien utilizada, no es un gadget, sino una infraestructura empresarial.
El éxito de este proyecto tiene menos que ver con el modelo utilizado que con el alineamiento entre negocio y tecnología: una gobernanza clara, prioridades de negocio bien definidas (satisfacción, ROI, escalabilidad) y disciplina en la ejecución. Este alineamiento, más que la brillantez técnica, es lo que determina la capacidad de una organización para sobrevivir y prosperar en la era de la IA.
El retail se está reinventando y replanteando sus flujos de valor. Circularidad, omnicanalidad, inteligencia artificial… ¿Estás explorando el papel del mundo digital en estos nuevos modelos? nuestros expertos en retail te acompañan para identificar tus casos de uso, definir tus prioridades y transformar tus operaciones. ¡Contáctanos para hablar de cómo podemos ayudarte!