IA conversacional en la Administración Pública: innovar sin perder el contro

| Marketing tecnológico | Presencia en Eventos | Irontec

Después de un CNIS 2026 en el que la IA ha estado omnipresente en prácticamente cada conversación, queríamos compartir la reflexión que presentamos en nuestra ponencia «IA conversacional en AAPP: ¿innovación o dependencia?». Lo que sigue es una versión ampliada de esas ideas, pensada para quienes tienen que tomar decisiones reales sobre estos temas.

La velocidad no es estrategia

La Administración Pública española está adoptando IA conversacional a un ritmo sin precedentes. Chatbots en páginas web municipales, asistentes de voz en centralitas, agentes virtuales que resuelven trámites las 24 horas? Ayuntamientos, diputaciones y gobiernos autonómicos compiten por incorporar estas soluciones como símbolo de modernización.

Y, sin embargo, hay una pregunta que muchas instituciones aún no se han hecho: ¿bajo qué condiciones se está implantando esta tecnología?

Porque implantar IA conversacional no es, en sí mismo, innovar. Innovar es hacerlo de forma que la institución mantenga el control sobre sus datos, sus modelos y la experiencia que ofrece a la ciudadanía. La velocidad de adopción, por sí sola, no garantiza nada. Lo que marca la diferencia es la calidad de las condiciones en las que se hace.

Este artículo pretende ofrecer un marco práctico para quienes tienen la responsabilidad de tomar esas decisiones: directores de innovación, responsables de tecnología, coordinadores de atención ciudadana y, en última instancia, cualquier decisor público que quiera que la IA trabaje a favor de su institución y no al revés.

El marco regulatorio ya no es una promesa: es una obligación

El Reglamento Europeo de Inteligencia Artificial (AI Act) ya está en vigor. No es un documento de intenciones ni una hoja de ruta. Es una norma vinculante que establece requisitos concretos para el desarrollo, despliegue y uso de sistemas de IA, con un impacto directo en las administraciones públicas.

En paralelo, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIAL) ha publicado 16 guías prácticas que aterrizan esos requisitos en tres grandes áreas:

  • Gobernanza del dato y de la IA: Cómo asegurar el control institucional sobre la información y los modelos que se utilizan.  
  • Gestión de riesgos y vigilancia: Pautas para identificar, evaluar y mitigar riesgos en entornos de producción. 
  • Supervisión humana y transparencia: Directrices sobre intervención humana, trazabilidad de las decisiones y documentación de logs. 

El mensaje es claro: desplegar IA no es suficiente; controlarla es obligatorio. Y esto no es una restricción. Es una oportunidad para que las instituciones públicas lideren una adopción tecnológica responsable y sostenible.

La dependencia que nadie nombra

Muchas administraciones están incorporando IA conversacional de la misma forma en que contrataban software en los años 2000: eligiendo al proveedor más visible, desplegando rápido y asumiendo que ?ya se verá?. El resultado, en demasiados casos, es una dependencia silenciosa que solo se percibe cuando ya es difícil de revertir.

Estas dependencias adoptan formas concretas:

Infraestructuras fuera de la UE

Datos de la ciudadanía alojados en servidores bajo jurisdicciones no europeas, sin garantías plenas de cumplimiento del RGPD. Cuando un ciudadano llama a su ayuntamiento y habla con un asistente virtual, ¿sabe dónde se procesan sus datos? ¿Lo sabe la propia institución?

Modelos opacos y no auditables

En muchos despliegues actuales, la administración no puede intervenir ni comprender cómo se generan las respuestas que recibe la ciudadanía. Si un modelo responde de forma errónea o sesgada, ¿quién rinde cuentas? ¿Cómo se corrige?

Dependencia estructural

Vínculos tecnológicos con proveedores que hacen extremadamente costoso ?en tiempo, dinero y complejidad técnica? cambiar de solución. Es el clásico vendor lock-in, aplicado ahora a una tecnología que gestiona la relación directa con la ciudadanía.

  La dependencia no empieza cuando el sistema falla. Empieza cuando dejamos de controlar cómo funciona.

Tres preguntas que toda institución debería hacerse

Antes de contratar, antes de desplegar, antes de anunciar públicamente ningún proyecto de IA conversacional, hay tres preguntas que deberían estar resueltas:

  • ¿Quién controla los datos? Propiedad, acceso, almacenamiento. ¿Están bajo jurisdicción pública? ¿Puede la institución acceder a ellos en cualquier momento? ¿Se eliminan cuando deben eliminarse?
  • ¿Quién puede auditar el modelo? Transparencia algorítmica y trazabilidad. Si el sistema da una respuesta incorrecta o discriminatoria, ¿hay registros que permitan entender por qué? ¿Puede la administración revisar la lógica subyacente?
  • ¿Puedo cambiar de proveedor? Portabilidad e independencia contractual. Si la relación con el proveedor actual no funciona, ¿es posible migrar sin empezar de cero? ¿O la arquitectura lo impide?

Este no es un debate técnico. Es un debate de gobernanza y autonomía estratégica. Y las respuestas a estas preguntas definen la diferencia entre una administración que lidera su transformación digital y una que simplemente la consume.

Cuatro condiciones para implantar IA sin nuevas dependencias

Desde nuestra experiencia acompañando a administraciones públicas en este tipo de proyectos, hemos identificado cuatro condiciones que consideramos irrenunciables:

  1. Despliegue controlado. La infraestructura debe estar en entorno europeo, ya sea on-premise o en nube bajo jurisdicción UE. Los datos ciudadanos no pueden salir del marco legal que los protege. Esto no es una preferencia ideológica; es un requisito del AI Act y del RGPD.
  2. Arquitectura abierta y auditable. Nada de cajas negras. La institución debe tener acceso a logs completos, trazabilidad de cada respuesta generada y capacidad de auditar la lógica del sistema.
  3. Gobernanza clara del dato. Quién accede, dónde se almacena, cuánto tiempo se retiene. Políticas de datos explícitas, verificables y alineadas con los marcos normativos vigentes. No basta con decir que se cumple el RGPD: hay que poder demostrarlo.
  4. Control sobre el modelo. El entrenamiento, los ajustes y la evolución del sistema deben responder a criterios institucionales, no al roadmap comercial de un proveedor externo. La administración debe poder decidir qué aprende su IA, cómo responde y cuándo cambia.

En definitiva, no se trata de contratar un chatbot. Se trata de diseñar una arquitectura pública bajo control institucional.

La ciudadanía y el trabajador público en el centro

Hasta aquí hemos hablado de regulación, soberanía y gobernanza. Pero todo esto tiene un propósito muy concreto: que la ciudadanía reciba un mejor servicio y que los profesionales públicos puedan hacer mejor su trabajo.

La IA conversacional bien implantada no sustituye al trabajador público. Lo potencia. Le permite dedicar su atención a lo que realmente importa: la escucha, la interpretación del caso concreto, la decisión informada. Y le libera de las tareas más mecánicas y repetitivas que consumen tiempo y generan errores.

Desde un punto de vista práctico, esto se traduce en tres tipos de mejora:

  • Precisión. Un gestor de atención ciudadana que recibe transcripción en tiempo real, identificación automática de la intención de la ciudadanía y recomendaciones contextuales sobre normativa y procedimientos comete menos errores y ofrece información más completa. No porque la IA decida por él, sino porque le da herramientas para decidir mejor.
  • Eficiencia. Las consultas repetitivas que saturan los servicios de atención ciudadana ?como las relativas a Zonas de Bajas Emisiones, trámites de empadronamiento o requisitos documentales? pueden ser resueltas de forma automática por agentes virtuales especializados, entrenados con consultas reales y adaptados a la normativa municipal vigente. Esto no solo reduce la carga operativa del SAC; garantiza una atención coherente, disponible las 24 horas, y libera a los profesionales para los casos que requieren juicio humano.
  • Capacidad de escucha. Cada interacción con la ciudadanía contiene información valiosa: problemas recurrentes, procesos que generan confusión, frustraciones que se repiten por barrio o área de servicio. Hoy, la mayor parte de esas señales se pierden. Un sistema de análisis semántico y de sentimiento sobre las conversaciones del SAC convierte ese canal operativo en un sensor social: una fuente de información estratégica para la toma de decisiones basada en evidencia.

En entornos críticos como emergencias ?policía, bomberos?, la IA puede transformar cada llamada en información estructurada y accionable: transcripción automática, identificación del tipo de incidente, activación de protocolos y resúmenes que facilitan la coordinación entre equipos. No se trata solo de grabar llamadas, sino de convertir conversaciones en datos que salvan tiempo y, potencialmente, vidas.

  El principio es siempre el mismo: la IA actúa como sistema de apoyo. La persona ?gestora, operadora, decisora? sigue siendo la protagonista.

Una hoja de ruta realista

Implantar IA conversacional con soberanía no requiere empezar de cero ni esperar a tener todos los elementos resueltos. Pero sí requiere un proceso deliberado y continuo. En nuestra experiencia, el camino más eficaz sigue cuatro fases:

  • Definir principios. Antes de elegir tecnología, hay que establecer los pilares: soberanía tecnológica, multilingüismo efectivo (especialmente relevante en comunidades con lenguas cooficiales) y experiencia ciudadana en tiempo real. Estos principios deben ser irrenunciables, no negociables en la fase de contratación.
  • Diseñar casos de uso concretos. Partir de necesidades reales y medibles: atención ciudadana, emergencias, Zonas de Bajas Emisiones, análisis del servicio de atención como fuente de inteligencia municipal. No desplegar IA por desplegar, sino resolver problemas específicos con criterios de impacto.
  • Exigir condiciones mínimas en la contratación. Despliegue en entorno europeo, arquitectura abierta y auditable, gobernanza clara del dato y capacidad de cambiar componentes tecnológicos para adecuar las herramientas sin generar situaciones de bloqueo del proveedor o ?vendor-locking?. Estas condiciones deben figurar en los pliegos, no ser un añadido posterior.
  • Implementar, medir y ajustar de forma continua. La IA conversacional no es un proyecto con fecha de fin. Es un servicio que debe observarse en tiempo real, evaluarse con datos y co-diseñarse con los equipos que lo operan. La mejora continua no es un eslogan: es la única forma de que el sistema evolucione alineado con las necesidades reales.

Cómo podemos ayudarte desde Irontec cuando consideres que ha llegado el momento

En Irontec llevamos más de 20 años trabajando con administraciones públicas en proyectos de comunicaciones, ingeniería de software e infraestructura crítica. Ayudamos a las organizaciones con nuestros servicios avanzados de consultoría, acompañamiento e integración de la IA, con un equipo de más de 150 profesionales, que trabajan con un enfoque abierto a través de workshops de adopción, proyectos de consultoría, proyectos de desarrollo e integración, securización y observabilidad, etc.

Desde esa experiencia, hemos también hemos desarrollado Faktoria, nuestra suite de comunicaciones omnicanal e IA conversacional, construida sobre software libre y diseñada desde su origen para operar bajo los principios que hemos descrito en este artículo: despliegue europeo u on-premise, arquitectura abierta, trazabilidad completa, supervisión humana por diseño y soporte real para todas las lenguas cooficiales.

Nuestro posicionamiento como empresa es claro: creemos que el sector público tiene la oportunidad ?y la obligación? de liderar una adopción de IA que sea a la vez innovadora y responsable. Como empresa tecnológica europea, apostamos por un modelo en el que la soberanía, la transparencia y el foco en el servicio público no son valores añadidos, sino la base sobre la que construimos cada proyecto. Eso significa propuestas concretas, no solo discursos.

Si tu institución está evaluando cómo incorporar IA conversacional ?o si ya lo ha hecho y quiere revisar las condiciones en las que opera?, estamos disponibles para compartir nuestra experiencia y explorar juntos el camino.

La cuestión ya no es si debemos implantar IA conversacional en el sector público. La cuestión es cómo. Y la respuesta es: con soberanía, con transparencia, con la ciudadanía en el centro. Porque la innovación pública no puede construirse sobre dependencias invisibles. 

¿Tu institución está evaluando cómo incorporar IA conversacional, o quiere revisar las condiciones en las que ya opera?

Hablemos