Volver al Glosario

Alucinación de IA

La alucinación de IA ocurre cuando un modelo de IA genera información que suena plausible pero es factualmente incorrecta, fabricada o sin sentido, no fundamentada en sus datos de entrenamiento o contexto proporcionado.

En Detalle

Las alucinaciones son el principal riesgo de confianza al desplegar IA en soporte al cliente. Un agente IA que declara con confianza una política de devolución incorrecta, inventa un número de seguimiento o fabrica especificaciones de producto puede causar daño real al negocio y erosionar la confianza del cliente. Las alucinaciones ocurren porque los modelos de lenguaje son generadores de texto probabilísticos — predicen tokens probables basándose en patrones, no en hechos.

Pueden producir texto fluido y convincente sobre cosas que simplemente no son ciertas. Las estrategias de mitigación incluyen Generación Aumentada con Recuperación (RAG) que fundamenta respuestas en bases de conocimiento verificadas, validación de salida que verifica afirmaciones contra datos fuente, puntuación de confianza que escala respuestas inciertas a humanos, y generación restringida que limita respuestas a plantillas aprobadas para acciones de alto riesgo. GuruSup emplea múltiples capas de prevención de alucinaciones: RAG con fuentes de conocimiento verificadas, barreras a nivel de acción que previenen operaciones no autorizadas, umbrales de confianza para escalación humana y monitoreo continuo que señala respuestas anómalas para revisión.

Woman with laptop

Elimina la atención al cliente tal
como la conoces.

Empieza gratis