Agentes de IA: qué son, cómo piensan, qué hacen solos y qué cambia cuando una máquina puede actuar por ti
Un chatbot responde. Un agente actúa. Esa diferencia de una sola palabra resume la mayor transformación tecnológica en marcha: sistemas de IA que perciben el entorno, razonan sobre qué hacer, ejecutan acciones en el mundo real y aprenden del resultado, todo ello en bucle y sin esperar a que un humano pulse intro. En ocho diapositivas entiendes qué es un agente de IA, por qué no es lo mismo que ChatGPT, cómo funciona por dentro, qué herramientas usa, cuáles ya están en producción en empresas reales, qué empleos están desapareciendo —Capgemini e Inetum ya lo dicen en voz alta— y qué preguntas no tienen respuesta todavía.
Chatbot vs. agente de IA: por qué no son lo mismo aunque usen el mismo modelo
Cuando le preguntas algo a ChatGPT, Claude o Gemini, estás usando un modelo de lenguaje (LLM). El modelo recibe texto, procesa y devuelve texto. Su "vida" dura lo que dura esa única consulta: sin memoria persistente, sin capacidad de actuar en el mundo, sin posibilidad de encadenar varias tareas por sí solo. Es un oráculo muy sofisticado, pero solo habla.
Un agente de IA usa ese mismo modelo como cerebro, pero le añade un sistema nervioso: puede observar el estado del entorno, decidir qué herramientas usar, ejecutar acciones —enviar correos, escribir código, navegar por webs, llamar a APIs— y evaluar si el resultado fue el esperado antes de dar el siguiente paso. La diferencia no es de inteligencia: es de autonomía operativa.
Modelo / Chatbot
Entrada: texto.
Salida: texto.
Memoria: solo la conversación actual.
Capacidad de actuar: ninguna por sí solo.
Analogía: un asesor muy brillante que solo puede darte consejos de palabra pero no puede hacer nada concreto. Le dices "necesito reservar el vuelo" y te explica cómo hacerlo. Tú lo haces.
Agente de IA
Entrada: objetivo o tarea.
Salida: resultado en el mundo real (código ejecutado, correo enviado, formulario rellenado).
Memoria: contexto persistente + memoria a largo plazo.
Capacidad de actuar: usa herramientas, llama a APIs, navega webs.
Analogía: un becario muy capaz al que le dices "organiza la reunión" y lo hace de principio a fin.
«Résumeme el informe» vs. «Consígueme el informe y résumemelo»
Si le dices a ChatGPT "résumeme el último informe de McKinsey sobre IA", te dirá que no puede acceder a internet. Si le dices lo mismo a un agente correctamente configurado, buscará el informe en la web, lo descargará, extraerá el texto, lo procesará y te entregará el resumen —posiblemente con citas textuales verificadas—. La tarea es idéntica. La capacidad de ejecución autónoma es radicalmente distinta.
Los agentes de IA existían conceptualmente desde los años 90 en la investigación académica. Lo que los hace viables hoy es la combinación de tres factores que antes no coincidían: (1) modelos de lenguaje suficientemente capaces para razonar sobre situaciones complejas y ambiguas; (2) interfaces de herramientas estandarizadas (APIs, function calling) que permiten al modelo "llamar" a sistemas externos de forma segura; y (3) coste de inferencia lo bastante bajo como para ejecutar decenas de pasos en un mismo flujo sin que resulte prohibitivo. La ventana entre 2023 y 2026 es cuando todo eso convergió.
El bucle que hace posible la autonomía: percibir, razonar, actuar, evaluar
Dentro de un agente de IA no hay magia: hay un bucle que se repite una y otra vez hasta completar la tarea. Ese bucle tiene cuatro fases. Entender cada una es entender por qué los agentes pueden hacer cosas que un chatbot no puede hacer aunque usen el mismo modelo por debajo.
El agente recibe información sobre su estado actual: la tarea asignada, el historial de pasos anteriores, el resultado de la última acción, cualquier dato nuevo del exterior (respuesta de una API, contenido de una página web, resultado de ejecutar código). Esta "percepción" es lo que diferencia cada iteración del bucle. El agente no empieza de cero en cada paso: sabe exactamente dónde está y qué ha hecho. Piensa en ello como el briefing que recibes al llegar a tu turno de trabajo: no empiezas ignorando lo que pasó antes.
El LLM analiza la situación y decide: ¿tengo suficiente información para dar el siguiente paso? ¿Qué herramienta necesito usar? ¿He completado la tarea o necesito más pasos? Esta fase puede incluir técnicas como chain-of-thought (razonamiento en cadena, donde el modelo "piensa en voz alta" antes de decidir), descomposición de la tarea en subtareas más pequeñas, o evaluación de si la ruta actual es la correcta o hay que cambiar de enfoque. Es el equivalente de pararte cinco segundos a pensar antes de actuar, en vez de lanzarte a lo primero que se te ocurre.
El agente llama a una herramienta concreta: hace una búsqueda en Google, ejecuta un fragmento de código Python, navega a una URL, rellena un formulario, llama a una API externa, escribe un fichero. La acción tiene efecto en el mundo real, no solo en el contexto de la conversación. Esto es lo que hace que un agente sea cualitativamente diferente: sus acciones tienen consecuencias fuera del chat.
El agente recibe el resultado de la acción y lo analiza. ¿La búsqueda devolvió información útil? ¿El código se ejecutó sin errores? ¿La API respondió con los datos esperados? En función de esa evaluación, el bucle vuelve a empezar (nueva iteración) o se detiene porque la tarea está completa. Un agente bien diseñado también sabe cuándo tiene que pedir ayuda al humano porque ha llegado a un punto de ambigüedad que no puede resolver solo.
Una tarea sencilla (buscar un dato concreto) puede resolverse en 2-3 iteraciones. Una tarea compleja —analizar un dataset, escribir y depurar código, investigar un tema con múltiples fuentes— puede requerir 20, 50 o incluso 100 iteraciones. El coste computacional (y económico) escala con la complejidad. Por eso los agentes de IA todavía son caros de usar a gran escala y las empresas los despliegan en tareas donde el valor generado justifica el coste.
Las herramientas: lo que convierte a un modelo en un agente capaz de actuar
Las herramientas son la clave. Sin ellas, un LLM es un generador de texto extremadamente sofisticado. Con ellas, se convierte en un sistema capaz de buscar, calcular, navegar, escribir, ejecutar y comunicarse con el exterior. Cada herramienta es un "superpoder" que el agente puede invocar cuando lo necesita.
Búsqueda web
El agente puede consultar Google, Bing o motores especializados en tiempo real. Esto rompe la limitación de fecha de corte de los LLMs: el agente tiene acceso a información publicada hoy, no solo a lo que había en los datos de entrenamiento. También puede verificar datos, contrastar fuentes y detectar cuando algo ha cambiado desde su última consulta.
Ejecutor de código
El agente puede escribir código en Python (u otros lenguajes), ejecutarlo en un entorno aislado (sandbox) y recibir el resultado. Esto lo hace capaz de hacer cálculos precisos, procesar datos, generar gráficos, transformar ficheros, instalar librerías y depurar sus propios errores de forma autónoma. Es uno de los superpoderes más potentes: convierte al agente en un analista de datos funcional.
Navegador web
El agente puede controlar un navegador real (Chromium, por ejemplo): visitar URLs, hacer clic, rellenar formularios, extraer texto de páginas, descargar ficheros, hacer login en servicios web. Claude Computer Use de Anthropic y OpenAI Operator usan esta capacidad para realizar tareas completas en la web como lo haría un humano: reservar vuelos, tramitar solicitudes administrativas, completar flujos de compra.
APIs y conectores
El agente puede llamar directamente a APIs externas: leer y escribir en Google Calendar, enviar correos por Gmail, actualizar registros en Salesforce, crear issues en GitHub, consultar bases de datos internas de la empresa. El protocolo MCP (Model Context Protocol) de Anthropic está emergiendo como estándar para conectar agentes con sistemas empresariales de forma segura y auditable.
El agente es como un trabajador con acceso controlado a los sistemas de la empresa
Imagina que contratas a un trabajador muy competente pero le das acceso solo a los sistemas que necesita para su trabajo: puede leer el CRM pero no borrarlo, puede enviar correos desde la cuenta del equipo pero no acceder a finanzas, puede ejecutar scripts en el servidor de test pero no en producción. Así funcionan los agentes bien diseñados: con permisos granulares que limitan el daño que pueden causar si cometen un error o son manipulados (lo que se conoce como prompt injection: un atacante que intenta redirigir las acciones del agente a través de contenido malicioso en una web que el agente visita).
Memoria y planificación: cómo un agente mantiene el hilo en tareas que duran horas o días
Uno de los límites más importantes de los LLMs es la ventana de contexto: la cantidad de texto que puede "ver" el modelo a la vez. Si esa ventana se llena, el modelo empieza a perder información de los primeros pasos. En un chatbot esto se nota cuando "se olvida" de algo que dijiste al principio. En un agente que trabaja durante horas en una tarea compleja, sería catastrófico. Por eso los agentes sofisticados tienen sistemas de memoria separados del contexto puro del modelo.
Memoria de trabajo (contexto)
Es la "memoria RAM" del agente: todo lo que está activo en este momento —la tarea actual, los últimos pasos, los datos que acaba de recuperar—. Tiene un límite físico (la ventana de contexto del modelo, que hoy puede ser de 200.000 tokens en los mejores modelos, equivalente a unas 150.000 palabras). Cuando se acerca al límite, el agente debe comprimir o resumir la información menos relevante para liberar espacio.
Memoria a largo plazo (vectorial)
Es la "memoria disco duro": una base de datos que el agente puede consultar y actualizar. Almacena hechos aprendidos de conversaciones anteriores, preferencias del usuario, resultados de tareas pasadas, documentos de referencia. Usa tecnología de embeddings y búsqueda semántica: el agente no busca por palabras exactas sino por significado. Cuando necesita algo de su memoria larga, recupera solo los fragmentos más relevantes para no saturar el contexto.
Un agente bien diseñado no empieza a actuar de inmediato. Primero descompone el objetivo en subtareas concretas, ordenadas y con dependencias claras. Es como escribir un plan de proyecto antes de ejecutarlo. Esta planificación inicial evita muchos errores de dirección: es mucho más costoso darse cuenta a mitad de camino de que el enfoque era equivocado que corregirlo antes de empezar.
El mundo real rara vez sigue el plan. Una API puede fallar, una página web puede tener una estructura diferente a la esperada, los datos pueden estar en un formato inesperado. Los agentes robustos detectan estas situaciones (evaluación en el bucle) y ajustan el plan en tiempo real: buscan una ruta alternativa, intentan una herramienta diferente, o escalan al humano si la situación supera su capacidad de resolución autónoma.
Las tareas muy complejas se resuelven mejor con varios agentes especializados que colaboran. Un agente "orquestador" divide el trabajo y lo asigna a agentes "ejecutores" especializados en áreas concretas (uno busca información, otro escribe código, otro verifica resultados). Esta arquitectura multiagente es la que permite abordar proyectos de semanas en horas, y es donde compañías como Anthropic, OpenAI y Google están invirtiendo más en 2026.
Los agentes ya están en producción: de Claude Computer Use a los bots de Salesforce
Los agentes de IA ya no son prototipos de laboratorio. Hay productos comerciales disponibles hoy que los utilizan. Algunos son "agentes de propósito general" diseñados para cualquier tarea; otros son agentes especializados integrados en flujos de trabajo empresariales concretos. Aquí los más relevantes en 2026.
| Producto | Empresa | Qué hace | Estado |
|---|---|---|---|
| Claude Computer Use | Anthropic | Controla el escritorio del ordenador: apps, navegador, terminal. El modelo "ve" la pantalla y ejecuta clics y pulsaciones de teclado. | Disponible (API) |
| Operator | OpenAI | Navega la web de forma autónoma para completar tareas: reservar restaurantes, rellenar formularios, comprar entradas, tramitar solicitudes. | Disponible (ChatGPT Pro) |
| Devin | Cognition AI | Agente de desarrollo software: escribe código, ejecuta tests, depura errores, crea pull requests en GitHub. Primer "ingeniero de software autónomo". | Disponible (empresas) |
| GitHub Copilot Workspace | Microsoft / GitHub | Toma un issue de GitHub, planifica los cambios de código necesarios, implementa las modificaciones y crea el pull request listo para revisión humana. | Disponible (beta) |
| Agentforce | Salesforce | Agentes integrados en el CRM que gestionan tickets de soporte, cualifican leads, actualizan registros y envían respuestas a clientes de forma autónoma. | Disponible (enterprise) |
| Project Mariner | Google DeepMind | Agente que navega Chrome de forma autónoma, entiende páginas complejas y completa tareas multi-paso en la web. | Preview limitado |
Claude Computer Use: el agente que ve tu pantalla
Lanzado por Anthropic en octubre de 2024, Claude Computer Use fue el primero en demostrar que un LLM puede controlar un ordenador completo a partir de capturas de pantalla. El modelo analiza visualmente la pantalla, identifica botones, menús y campos de texto, y genera las acciones necesarias (clics, escritura, desplazamientos). En demos públicas completó tareas como rellenar formularios en webs gubernamentales, instalar software, analizar datos en Excel y gestionar ficheros. La tasa de éxito en tareas complejas todavía es del 38–60% según el benchmark OSWorld, lo que significa que necesita supervisión, pero la mejora trimestral es significativa.
Devin: el ingeniero de software que no duerme
Devin, de Cognition AI, fue presentado en marzo de 2024 como el primer "ingeniero de software totalmente autónomo". Puede leer la descripción de un bug en GitHub, analizar el código relevante, proponer la corrección, implementarla, ejecutar los tests, depurar si algo falla y crear el pull request. En el benchmark SWE-bench, que evalúa la resolución de issues reales de GitHub, Devin alcanzó el 13,86% de éxito inicial (frente al 1,96% de los mejores modelos anteriores). Una cifra que suena baja pero en problemas de ingeniería del mundo real es revolucionaria.
Qué cambia en el trabajo cuando los agentes pueden hacer tareas completas, no solo asistir
Mientras los chatbots eran herramientas de asistencia —ayudaban a los humanos a trabajar más rápido—, los agentes son sustitutos funcionales para determinadas tareas completas. Esa diferencia tiene consecuencias directas en el empleo. No hipotéticas: ya están pasando en España.
La consultora tecnológica Capgemini anunció en abril de 2026 un ERE que afecta a cientos de trabajadores en España, siendo el primero en el sector en el que la empresa reconoció explícitamente que la IA puede realizar el trabajo que hacían esos empleados. Los perfiles afectados son principalmente desarrolladores junior, testers de software y analistas de datos de nivel medio. Capgemini señaló que agentes de IA como Devin y GitHub Copilot Workspace les permiten completar ciertos proyectos con un equipo un 40-60% más pequeño.
Solo días después, Inetum anunció el despido de 400 trabajadores en España, convirtiéndose en la segunda gran consultora tecnológica en iniciar un ERE con la IA como justificación declarada. La compañía citó la adopción de agentes de IA en procesos de soporte técnico, gestión de incidencias y desarrollo de software como la causa directa de la reducción de plantilla.
| Perfil profesional | Tareas más expuestas a agentes | Nivel de riesgo a 3 años |
|---|---|---|
| Desarrollador junior | Código boilerplate, corrección de bugs simples, tests unitarios, documentación | Alto |
| Analista de datos | Limpieza de datos, generación de informes estándar, visualizaciones rutinarias | Alto |
| QA / Tester | Tests de regresión, detección de errores, generación de casos de prueba | Muy alto |
| Soporte técnico nivel 1 | Resolución de incidencias estándar, FAQs, escalado de tickets | Muy alto |
| Paralegal / Asistente legal | Revisión de contratos, búsqueda de jurisprudencia, síntesis de documentos | Medio-alto |
| Desarrollador senior / Arquitecto | Diseño de sistemas, decisiones de negocio, supervisión de agentes | Bajo (transición de rol) |
| Gestor de proyectos | Coordinación humana, gestión de stakeholders, toma de decisiones ambiguas | Bajo |
Qué tareas desaparecen o se reducen
Las tareas más en riesgo son las que combinan tres características: son bien definidas (hay una respuesta correcta), repetitivas (el mismo proceso una y otra vez) y basadas en información existente (no requieren juicio sobre situaciones genuinamente nuevas). Un agente puede hacer miles de estas tareas en paralelo, sin cansarse, sin cometer errores de concentración y a un coste marginal casi nulo tras la inversión inicial en configuración.
Qué queda en manos humanas
Los roles que se refuerzan son los que requieren: responsabilidad legal o ética sobre decisiones (los agentes pueden equivocarse y alguien tiene que asumir la consecuencia), creatividad genuinamente novedosa (no síntesis de lo existente), relaciones de confianza interpersonal, y supervisión y auditoría de los propios agentes. El perfil más demandado en 2026: quien sabe tanto de su dominio como de cómo diseñar y supervisar agentes de IA.
Los riesgos reales, las preguntas sin respuesta y lo que todavía no sabemos
Los agentes de IA abren capacidades enormes pero también introducen riesgos cualitativamente nuevos. No son los riesgos especulativos de la ciencia ficción: son problemas de ingeniería, legales y sociales que ya están en los tribunales, en los parlamentos y en los manuales de los departamentos de recursos humanos.
Alucinaciones con consecuencias reales
Un chatbot que alucina (inventa un dato que no existe) causa un malentendido. Un agente que alucina y actúa puede enviar un correo con información errónea a un cliente, borrar un fichero equivocado, hacer una compra no autorizada o modificar un registro en una base de datos. La diferencia entre alucinación pasiva y activa es enorme. En 2024, un abogado en EE.UU. fue sancionado por presentar al tribunal jurisprudencia inventada por ChatGPT. Con agentes autónomos, ese tipo de errores podría ejecutarse sin intervención humana.
Responsabilidad legal: ¿quién responde cuando el agente falla?
Si un agente de IA toma una decisión equivocada que causa un daño, ¿quién es responsable? ¿La empresa que lo desplegó? ¿La empresa que fabricó el modelo? ¿El usuario que dio el objetivo? En la UE, el Reglamento de IA (que entra en vigor el 2 de agosto de 2026) establece categorías de riesgo y obligaciones de auditoría para sistemas de IA de alto riesgo, pero la casuística de los agentes autónomos todavía no está completamente cubierta por la legislación.
Prompt injection
Un atacante puede insertar instrucciones maliciosas en el contenido que el agente procesa (una web, un correo, un documento). Si el agente no tiene mecanismos de defensa, puede ser redirigido para ejecutar acciones no autorizadas. Es el equivalente de poner un Post-it con instrucciones falsas en el escritorio de tu nuevo becario.
Escalada de privilegios
Si un agente tiene acceso excesivo a los sistemas de la empresa y comete un error —o es manipulado—, el daño puede ser catastrófico. El principio del mínimo privilegio (dar al agente solo los permisos que necesita para su tarea concreta) es esencial pero difícil de implementar en la práctica.
Supervisión y auditabilidad
¿Cómo sabe la empresa qué ha hecho exactamente el agente durante las ocho horas que trabajó de forma autónoma? Sin registros detallados de cada acción y cada decisión, la auditoría es imposible. Esto es un requisito legal en sectores regulados (banca, sanidad, defensa) y un desafío técnico activo.
Lo que no tiene respuesta todavía
- La tasa de éxito de los mejores agentes en tareas complejas sigue siendo del 40-70%. ¿Cuál es el umbral aceptable de autonomía sin supervisión constante?
- Los ERE de Capgemini e Inetum son los primeros. ¿Habrá una ola generalizada en las consultoras tecnológicas antes de 2027, o el crecimiento del sector absorberá la eficiencia?
- El Reglamento de IA de la UE clasifica los "sistemas de IA de propósito general" como categoría separada. ¿Los agentes autónomos de alto riesgo tendrán que someterse a certificación previa a su despliegue?
- ¿El coste de supervisar y auditar agentes en sectores regulados superará el ahorro de automatizar? Algunos análisis internos de grandes bancos europeos apuntan a que sí, para ciertos procesos.
- McKinsey estima que el 70% de las tareas cognitivas rutinarias serán automatizables para 2030. ¿Cómo se redistribuirán los trabajadores desplazados en una economía que todavía no ha definido los nuevos roles?
Lee también
- Inetum despide a 400 en España por la IA: segunda gran consultora en dos semanas 05·05·26
- Capgemini despide en España porque la IA hace el trabajo: el primer ERE masivo que lo dice en voz alta 23·04·26
- 100 días para el reglamento de IA más exigente del mundo: qué prohíbe, qué obliga y qué pasa en España el 2 de agosto 24·04·26
Cómo hemos construido este artículo
Los mecanismos técnicos descritos (bucle percibir-razonar-actuar, tipos de memoria, arquitecturas multiagente) están basados en la documentación pública de Anthropic sobre Claude y el Model Context Protocol (mayo 2026), en los papers técnicos de OpenAI sobre Operator y GPT-4o (2024-2025), en el informe "The State of AI Agents" de McKinsey Global Institute (enero 2026) y en el benchmark OSWorld para evaluación de agentes de control de ordenador (Universidad de Michigan, 2024). Los datos sobre Devin/Cognition AI proceden del paper original de SWE-bench (Princeton/Chicago, 2024). Los EREs de Capgemini e Inetum están recogidos en los artículos de noticias enlazados en la sección "Lee también". La tabla de empleos afectados es una síntesis de los informes de OCDE (2024), Goldman Sachs (2023) y el análisis de exposición ocupacional de Anthropic (2025), adaptada al mercado español. Cualquier dato que deba ser corregido o actualizado: redaccion@horadedespertar.org. Consulta realizada en mayo de 2026.