Transparencia y explicabilidad IA
Cuando tu sistema de IA deniega un préstamo, clasifica un ticket de soporte como baja prioridad o recomienda un plan de tratamiento, alguien va a preguntar: ¿por qué? Si no puedes responder a esa pregunta, tienes un problema de transparencia. Y bajo el EU AI Act, un problema de transparencia es un problema de cumplimiento.
Esta guía cubre qué significan transparencia y explicabilidad en la práctica, las técnicas disponibles y qué exige la ley. Se conecta directamente con tu framework de gobernanza IA — la transparencia no es una funcionalidad que añades al final. Es una decisión de arquitectura.
Transparencia vs explicabilidad
Estos términos se usan indistintamente, pero significan cosas diferentes:
- Transparencia — comunicar que hay IA involucrada, qué datos usa y cómo funciona el sistema a alto nivel. Se trata de apertura organizativa.
- Explicabilidad — proporcionar razones específicas para decisiones individuales de IA. Se trata de capacidad técnica. ¿Por qué el modelo clasificó a este cliente como alto riesgo de baja?
Necesitas ambas. Transparencia sin explicabilidad es relaciones públicas. Explicabilidad sin transparencia es una funcionalidad que nadie sabe que existe.
Técnicas XAI que funcionan en producción
SHAP (SHapley Additive exPlanations)
SHAP asigna a cada feature un valor de contribución para una predicción específica, basándose en teoría de juegos (valores de Shapley). Responde a: ¿cuánto empujó cada variable de entrada la predicción hacia arriba o hacia abajo?
- Funciona con cualquier tipo de modelo — tabular, texto, imagen
- Proporciona explicaciones tanto locales (por predicción) como globales (del modelo completo)
- Computacionalmente costoso para modelos grandes. Usa KernelSHAP para aproximaciones o TreeSHAP para modelos basados en árboles
Ideal para: decisiones de alto riesgo donde necesitas mostrar a los reguladores exactamente por qué ocurrió un resultado específico.
LIME (Local Interpretable Model-agnostic Explanations)
LIME crea un modelo simple e interpretable alrededor de una predicción individual perturbando la entrada y observando cambios. Responde a: ¿qué cambiaría el resultado?
- Agnóstico al modelo — funciona con cualquier modelo de caja negra
- Más rápido que SHAP para explicaciones individuales
- Menos estable — ejecutar LIME dos veces sobre la misma entrada puede producir explicaciones diferentes. Es una limitación conocida
Ideal para: explicaciones orientadas al cliente donde necesitas una respuesta rápida e intuitiva.
Visualización de atención
Para modelos basados en transformers (LLMs, BERT), los mapas de atención muestran en qué partes de la entrada se centró el modelo. Útil para depuración pero poco fiable como explicaciones reales — la atención no siempre equivale a importancia.
Explicaciones contrafactuales
En lugar de explicar por qué se tomó una decisión, los contrafactuales explican qué tendría que cambiar para obtener un resultado diferente. "Tu solicitud fue rechazada porque tu facturación estaba por debajo de 500K€. Si la facturación superara los 500K€, habría sido aprobada."
Útil para feedback accionable y auditoría de equidad. Se conecta con la detección de sesgo IA — los contrafactuales revelan cuándo las características protegidas influyen en los resultados.
EU AI Act Artículo 50: obligaciones de transparencia
El Artículo 50 establece requisitos de transparencia específicos según el tipo de sistema de IA:
- Contenido generado por IA — los proveedores deben marcar el contenido para que pueda detectarse como generado por IA. Incluye texto, audio, imágenes y vídeo.
- Chatbots e IA conversacional — los usuarios deben ser informados de que interactúan con IA, no con un humano, antes o al inicio de la interacción.
- Reconocimiento emocional y categorización biométrica — los individuos deben ser informados cuando estos sistemas están en uso.
- Deepfakes — el contenido generado o manipulado por IA que muestra personas reales debe estar etiquetado. Sin excepciones.
Para sistemas de alto riesgo, los requisitos de transparencia van más allá: los operadores deben proporcionar explicaciones significativas de las decisiones de IA a los individuos afectados. "La IA decidió" no es suficiente.
Estrategia de implementación
Construye la explicabilidad en tu pipeline de IA desde el principio:
- Elige tu enfoque de explicabilidad durante la selección del modelo, no después del despliegue. Algunas arquitecturas de modelos son inherentemente más explicables.
- Registra las contribuciones de features junto a las predicciones. Almacena valores SHAP o equivalentes para cada decisión de alto riesgo.
- Construye interfaces de explicación para diferentes audiencias: detalles técnicos para ingenieros, resúmenes en lenguaje llano para clientes, informes estructurados para auditores.
- Testea las explicaciones con usuarios reales. Una explicación técnicamente correcta pero incomprensible no cumple.
- Documenta tu enfoque de explicabilidad en tu política de IA responsable.
La transparencia es un requisito de gobernanza, no un detalle opcional. Sigue la evolución de los requisitos en nuestra página de señal de gobernanza IA.