Un agente de IA funciona mediante un bucle iterativo en el que percibe una entrada, razona sobre ella, ejecuta una acción con herramientas externas y observa el resultado antes de decidir el siguiente paso. Este ciclo, conocido como ReAct, es lo que separa a un agente de un simple modelo de lenguaje que genera texto.
En este artículo vas a entender los cinco componentes internos de la arquitectura de un agente IA, cómo opera el ciclo ReAct con un ejemplo real y por qué el prompt engineering determina si tu agente resuelve el 50 % o el 80 % de las consultas. Si buscas primero una definición general, consulta nuestra guía completa de agentes IA.
Los 5 componentes de la arquitectura
Todo agente de IA funcional se construye sobre cinco componentes que trabajan de forma coordinada. Elimina cualquiera y lo que obtienes es un sistema incapaz de operar con autonomía.
| Componente | Función | Por qué importa |
|---|---|---|
| LLM (Cerebro) | Motor de razonamiento del agente | Decide qué acción tomar y en qué orden |
| Memoria | Almacena contexto a corto y largo plazo | Evita empezar cada conversación desde cero |
| Herramientas (Tools) | APIs, CRM, bases de datos, canales | Transforma al agente de entender a hacer |
| Planificación | Descompone tareas complejas en subtareas | Permite resolver problemas de varios pasos |
| Percepción | Analiza intención, sentimiento y entidades | Comprende qué necesita el usuario realmente |
El LLM como cerebro central
El LLM (Large Language Model) es el motor de razonamiento del agente. Modelos como GPT-5.4 de OpenAI, Claude de Anthropic, Google Gemini o Llama de Meta comprenden instrucciones en lenguaje natural y deciden qué acción tomar a continuación. El LLM no almacena datos ni ejecuta código por sí mismo: razona sobre qué hacer y en qué orden. La elección del modelo base impacta directamente en la calidad del razonamiento, la capacidad de seguir instrucciones complejas y el coste operativo por token procesado.
Memoria a corto y largo plazo
La memoria es lo que permite al agente no empezar cada conversación desde cero. La memoria a corto plazo corresponde a la context window del LLM: toda la información de la sesión activa. La memoria a largo plazo se implementa mediante vector databases como Pinecone o Weaviate, donde se almacenan embeddings de conversaciones pasadas y documentos internos. Puedes profundizar en memoria en agentes de IA.
Herramientas (Tools)
Las herramientas son el mecanismo que transforma al agente de “entender” a “hacer”. Una herramienta puede ser una API REST para consultar pedidos, una conexión a un CRM, un intérprete de código o una integración con la WhatsApp Business API para enviar mensajes. El LLM decide cuándo y qué herramienta usar mediante un protocolo conocido como function calling (o tool use). Este mecanismo es lo que diferencia a un agente IA vs chatbot: el chatbot responde con texto; el agente ejecuta acciones reales en sistemas externos.
Planificación
La planificación es la capacidad de descomponer una tarea compleja en subtareas manejables. Técnicas como Chain-of-Thought prompting fuerzan al modelo a razonar paso a paso antes de actuar. Si un cliente pide “cancela mi suscripción y devuélveme lo proporcional”, el agente descompone: identificar usuario, consultar suscripción activa, calcular importe, procesar cancelación, iniciar reembolso y confirmar. Sin planificación, intentaría resolver todo de golpe y fallaría.
Percepción
La percepción va más allá del texto literal. Incluye análisis de intención (¿el usuario quiere información o ejecutar una acción?), detección de sentimiento (¿está frustrado?), extracción de entidades (nombres, números de pedido, fechas) y comprensión del contexto conversacional. En agentes avanzados, también abarca entrada multimodal: imágenes, mensajes de voz en WhatsApp o documentos adjuntos.
El ciclo ReAct: percepción, razonamiento, acción, observación
Un agente IA no procesa solicitudes de forma lineal. Opera en un bucle iterativo llamado ReAct (Reasoning + Acting), un paradigma descrito por investigadores de Google y la Universidad de Princeton y adoptado como estándar en frameworks como LangChain y LangGraph. El ciclo tiene cuatro fases que se repiten hasta que el objetivo se cumple.
Paso 1 — Percibir. El agente recibe un estímulo. Un cliente escribe en WhatsApp: “Mi pedido no ha llegado y llevo tres días esperando”. El agente analiza el mensaje: detecta una intención de reclamación, un sentimiento de frustración y una entidad temporal (“tres días”).
Paso 2 — Razonar. El LLM evalúa la situación, consulta la memoria para comprobar si hay interacciones previas con este cliente y genera un plan de acción. Este paso es el razonamiento interno: el modelo “piensa en voz alta” sobre qué herramientas necesita y en qué orden.
Paso 3 — Actuar. El agente ejecuta la acción: llama a la API del sistema de gestión de pedidos y recibe una respuesta indicando que el envío tiene un retraso por incidencia en el almacén de destino con una nueva fecha estimada.
Paso 4 — Observar. El agente evalúa el resultado. Tiene la información que necesitaba. Pero el ciclo no termina: el agente vuelve a razonar. Dado el sentimiento de frustración, decide ofrecer un descuento compensatorio además de informar sobre el retraso. Ejecuta una segunda acción (registra el descuento en el CRM) y compone un mensaje personalizado.
Este bucle continuo es lo que convierte a los agentes en sistemas capaces de resolver problemas que nunca se programaron explícitamente. Un programa lineal necesita que anticipes cada escenario. Un agente de IA con ReAct razona en tiempo real, adapta su comportamiento y encadena múltiples acciones hasta alcanzar el objetivo. Según qué capacidades predominen en este ciclo, obtendrás distintos tipos de agentes de IA.
El papel del prompt engineering
El system prompt es el ADN del agente. Define su comportamiento, sus reglas de actuación, cuándo usar cada herramienta, cómo formatear respuestas, cuándo escalar a un humano y qué información no debe inventar jamás. Un prompt engineering bien ejecutado es la diferencia entre un agente que resuelve el 50 % de las consultas y uno que alcanza el 80 %.
El system prompt incluye: identidad del agente, descripción de cada herramienta con parámetros y ejemplos, guardrails de seguridad (no compartir datos de otros clientes, no aprobar reembolsos por encima de cierto importe sin supervisión) y reglas de escalación. Todo esto debe caber dentro de la context window del modelo, lo que obliga a un equilibrio entre instrucciones exhaustivas y capacidad operativa.
Los tipos de agentes IA más efectivos no son los que usan el modelo más potente, sino los que tienen el prompt mejor diseñado.
Componentes en agentes empresariales
En el contexto empresarial, cada componente adquiere una dimensión práctica concreta. La percepción se traduce en integraciones con CRM, email o canales de chat. El razonamiento aplica reglas de negocio y políticas internas. La acción ejecuta tareas en los sistemas de la empresa.
En GuruSup, diseñamos soluciones de agentes de IA para empresas asegurándonos de que cada componente está alineado con la operativa real del cliente. Como explica Víctor Mollá, CEO de GuruSup, un agente solo es útil si sus componentes están conectados con los sistemas y procesos donde tiene que operar.
Un ejemplo claro son los agentes de IA para atención al cliente, donde la percepción incluye mensajes del usuario, el razonamiento aplica protocolos de soporte y la acción resuelve el caso o lo escala al equipo humano. Estos componentes operan a través de canales como agentes de IA para WhatsApp, agentes IA de voz o chatbot WhatsApp para empresas, y se apoyan en herramientas como software helpdesk con IA para gestionar tickets y escalar casos.
Como explica Víctor Mollá, CEO de GuruSup, la arquitectura de un agente no es un ejercicio teórico: es lo que determina si tu automatización resuelve el 50 % o el 80 % de los casos sin intervención humana.
Relación con otros conceptos
Los componentes de un agente determinan directamente sus capacidades. Según qué componentes predominen, obtendrás distintos tipos de agentes de IA: un agente sin memoria será reactivo, mientras que uno con aprendizaje continuo podrá evolucionar con el uso.
La memoria y la seguridad son aspectos que complementan esta arquitectura: la primera mejora la calidad de las decisiones y la segunda garantiza que el agente opera dentro de límites seguros. Entender la diferencia entre un agente y otras soluciones es también fundamental: consulta agente IA vs asistente.
Desde la experiencia de GuruSup, entender los componentes de un agente es imprescindible para diseñar soluciones que realmente funcionen en entornos reales.
¿Listo para automatizar tu soporte?
Únete a miles de equipos que usan GuruSup para resolver consultas con IA — sin aumentar plantilla.
Sin tarjeta de crédito