Volver al blogArquitectura de Agentes IA

Requisitos de la Ley de IA de la UE para chatbots

GuruSup

Todo chatbot desplegado en el mercado de la UE necesita cumplir con los requisitos de transparencia de la Ley de IA para el 2 de agosto de 2026. La obligación principal es simple: decir a las personas que hablan con una máquina. La implementación práctica tiene más matices de lo que sugiere esa frase.

Artículo 50: La base de transparencia

El Artículo 50 de la Ley de IA establece obligaciones de transparencia para los sistemas de IA que interactúan directamente con personas. Para chatbots, las disposiciones relevantes son:

  • Los proveedores deben garantizar que los sistemas de IA diseñados para interactuar directamente con personas físicas se diseñen y desarrollen de modo que los afectados estén informados de que interactúan con un sistema de IA. Esto aplica salvo que sea evidente por las circunstancias y el contexto de uso.
  • Los proveedores de sistemas de IA que generan texto, audio, imágenes o vídeo sintéticos deben garantizar que la salida se marque como generada o manipulada artificialmente en un formato legible por máquina.

La excepción de "salvo que sea evidente" es limitada. Un asistente de voz claramente robótico podría calificar. Un chatbot de texto que genera respuestas con sonido humano casi seguro que no. Ante la duda, divulga.

Cómo es la divulgación en la práctica

Al inicio de la conversación

El enfoque más directo: mostrar un mensaje claro antes o al inicio de la interacción. Ejemplos que funcionan:

  • "Estás hablando con un asistente de IA. Puedes solicitar un agente humano en cualquier momento."
  • "Esta conversación funciona con IA. Para soporte humano, escribe 'agente'."
  • Un indicador visual permanente (icono, insignia o etiqueta) de que el interlocutor es IA.

Lo que no funciona: enterrar la divulgación en una página de términos de servicio, usar lenguaje vago como "asistente inteligente" sin aclarar la naturaleza de IA, o divulgar solo en un artículo del centro de ayuda.

Para contenido generado por IA dentro de conversaciones

Si tu chatbot genera texto, imágenes u otro contenido que podría confundirse con material creado por humanos, ese contenido debe etiquetarse. Esto aplica a:

  • Borradores de email escritos por IA enviados a través del chatbot
  • Resúmenes generados por IA de documentos o conversaciones
  • Imágenes o medios sintéticos compartidos en el chat

El etiquetado debe ser legible por máquina (metadatos) además de cualquier indicador visible para humanos.

Divulgación de reconocimiento de emociones

Si tu chatbot o su sistema subyacente detecta emociones (análisis de sentimiento que va más allá del enrutamiento e identifica estados emocionales), debes informar al usuario. Un chatbot que detecta frustración y ajusta su tono necesita divulgar esta capacidad.

Cuándo los chatbots se convierten en alto riesgo

La mayoría de los chatbots caen bajo riesgo limitado con obligaciones solo de transparencia. Pero ciertos despliegues empujan a los chatbots a territorio de alto riesgo:

  • Chatbots que toman o influyen directamente en decisiones sobre servicios esenciales: procesamiento de reclamaciones de seguros, evaluación de solicitudes de préstamos, determinación de elegibilidad para beneficios. Caen bajo la categoría 5 del Anexo III.
  • Chatbots de contratación que filtran candidatos, programan entrevistas basándose en puntuación de IA o hacen recomendaciones de contratación. Categoría 4 del Anexo III.
  • Chatbots sanitarios que proporcionan sugerencias diagnósticas o hacen triaje de pacientes. Pueden calificar como IA de dispositivo médico bajo el Anexo I.
  • Chatbots educativos que evalúan el rendimiento de estudiantes o determinan el acceso a programas educativos. Categoría 3 del Anexo III.

El factor determinante no es la tecnología (sigue siendo un chatbot) sino la decisión que influye. Un chatbot que responde preguntas frecuentes es de riesgo limitado. La misma arquitectura de chatbot decidiendo si aprobar una solicitud de crédito es de alto riesgo.

Requisitos de implementación técnica

Para chatbots de riesgo limitado

  • Mecanismo de divulgación al inicio de la interacción (elemento de UI, mensaje o indicador permanente)
  • Etiquetas legibles por máquina en contenido generado por IA (etiquetado de metadatos)
  • Aviso de reconocimiento de emociones si aplica
  • Documentación de las medidas de transparencia implementadas

Para chatbots de alto riesgo (además de lo anterior)

  • Evaluación de conformidad completa según el checklist de cumplimiento
  • Sistema de gestión de riesgos que cubra todo el ciclo de vida del chatbot
  • Gobernanza de datos para conjuntos de datos de entrenamiento y ajuste fino
  • Registro de todas las interacciones suficiente para trazabilidad
  • Mecanismos de supervisión humana (escalado a agentes humanos, capacidades de anulación)
  • Registro en la base de datos de la UE

Proveedores de chatbots de terceros

Si usas una plataforma de chatbot construida por otro (y la mayoría de empresas lo hacen), la responsabilidad se divide:

  • El proveedor del chatbot debe garantizar que el sistema se diseñe para el cumplimiento de transparencia (obligaciones del Artículo 50, marcado CE para alto riesgo).
  • Tú como implementador debes implementar realmente la divulgación de transparencia en tu despliegue, usar el sistema según las instrucciones y mantener la supervisión humana.

Revisa la documentación de cumplimiento de la Ley de IA de tu proveedor. Si no pueden proporcionar una declaración de conformidad o guía de transparencia, eso es una señal de alarma.

Escenarios comunes de chatbots

Chatbot de preguntas frecuentes en un sitio web

Riesgo limitado. Añade una divulgación al inicio de la conversación. Etiqueta cualquier contenido generado por IA. Listo.

Chatbot de soporte al cliente con creación de tickets

Riesgo limitado si asiste a humanos que toman las decisiones finales. Divulga la naturaleza de IA. Asegura una vía de escalado a agentes humanos. Consulta nuestra guía de IA de atención al cliente.

Chatbot de seguros que aprueba o deniega reclamaciones

Alto riesgo (Anexo III, categoría 5). Evaluación de conformidad completa requerida. Supervisión humana obligatoria para decisiones de reclamaciones.

Chatbot de RRHH que filtra candidatos

Alto riesgo (Anexo III, categoría 4). Evaluación de conformidad, pruebas de sesgo, transparencia hacia los candidatos sobre la participación de IA en el proceso.

Calendario de aplicación

Las obligaciones de transparencia para chatbots son exigibles desde el 2 de agosto de 2026. Los requisitos de chatbots de alto riesgo en la misma fecha para sistemas del Anexo III.

Para el calendario completo, consulta nuestro cronograma de la Ley de IA. Para cómo interactúa con la protección de datos cuando los chatbots procesan datos personales, lee Ley de IA vs RGPD.

Empieza con el resumen de la Ley de IA para el contexto regulatorio completo.

Artículos relacionados