← Todas las noticias
Modo de lectura
01 — 08 Tecnología · Educación

Agentes de IA: qué son, cómo piensan, qué hacen solos y qué cambia cuando una máquina puede actuar por ti

Un chatbot responde. Un agente actúa. Esa diferencia de una sola palabra resume la mayor transformación tecnológica en marcha: sistemas de IA que perciben el entorno, razonan sobre qué hacer, ejecutan acciones en el mundo real y aprenden del resultado, todo ello en bucle y sin esperar a que un humano pulse intro. En ocho diapositivas entiendes qué es un agente de IA, por qué no es lo mismo que ChatGPT, cómo funciona por dentro, qué herramientas usa, cuáles ya están en producción en empresas reales, qué empleos están desapareciendo —Capgemini e Inetum ya lo dicen en voz alta— y qué preguntas no tienen respuesta todavía.

Publicado · 06 MAY 2026 Lectura · 18–20 min Autor · Redacción HdD
02 — 08 La distinción clave

Chatbot vs. agente de IA: por qué no son lo mismo aunque usen el mismo modelo

Cuando le preguntas algo a ChatGPT, Claude o Gemini, estás usando un modelo de lenguaje (LLM). El modelo recibe texto, procesa y devuelve texto. Su "vida" dura lo que dura esa única consulta: sin memoria persistente, sin capacidad de actuar en el mundo, sin posibilidad de encadenar varias tareas por sí solo. Es un oráculo muy sofisticado, pero solo habla.

Un agente de IA usa ese mismo modelo como cerebro, pero le añade un sistema nervioso: puede observar el estado del entorno, decidir qué herramientas usar, ejecutar acciones —enviar correos, escribir código, navegar por webs, llamar a APIs— y evaluar si el resultado fue el esperado antes de dar el siguiente paso. La diferencia no es de inteligencia: es de autonomía operativa.

💬

Modelo / Chatbot

Entrada: texto.
Salida: texto.
Memoria: solo la conversación actual.
Capacidad de actuar: ninguna por sí solo.

Analogía: un asesor muy brillante que solo puede darte consejos de palabra pero no puede hacer nada concreto. Le dices "necesito reservar el vuelo" y te explica cómo hacerlo. Tú lo haces.

🤖

Agente de IA

Entrada: objetivo o tarea.
Salida: resultado en el mundo real (código ejecutado, correo enviado, formulario rellenado).
Memoria: contexto persistente + memoria a largo plazo.
Capacidad de actuar: usa herramientas, llama a APIs, navega webs.

Analogía: un becario muy capaz al que le dices "organiza la reunión" y lo hace de principio a fin.

El ejemplo que lo aclara todo

«Résumeme el informe» vs. «Consígueme el informe y résumemelo»

Si le dices a ChatGPT "résumeme el último informe de McKinsey sobre IA", te dirá que no puede acceder a internet. Si le dices lo mismo a un agente correctamente configurado, buscará el informe en la web, lo descargará, extraerá el texto, lo procesará y te entregará el resumen —posiblemente con citas textuales verificadas—. La tarea es idéntica. La capacidad de ejecución autónoma es radicalmente distinta.

Por qué ahora y no antes

Los agentes de IA existían conceptualmente desde los años 90 en la investigación académica. Lo que los hace viables hoy es la combinación de tres factores que antes no coincidían: (1) modelos de lenguaje suficientemente capaces para razonar sobre situaciones complejas y ambiguas; (2) interfaces de herramientas estandarizadas (APIs, function calling) que permiten al modelo "llamar" a sistemas externos de forma segura; y (3) coste de inferencia lo bastante bajo como para ejecutar decenas de pasos en un mismo flujo sin que resulte prohibitivo. La ventana entre 2023 y 2026 es cuando todo eso convergió.

03 — 08 Cómo funciona

El bucle que hace posible la autonomía: percibir, razonar, actuar, evaluar

Dentro de un agente de IA no hay magia: hay un bucle que se repite una y otra vez hasta completar la tarea. Ese bucle tiene cuatro fases. Entender cada una es entender por qué los agentes pueden hacer cosas que un chatbot no puede hacer aunque usen el mismo modelo por debajo.

1
Percibir — ¿qué está pasando en el entorno?

El agente recibe información sobre su estado actual: la tarea asignada, el historial de pasos anteriores, el resultado de la última acción, cualquier dato nuevo del exterior (respuesta de una API, contenido de una página web, resultado de ejecutar código). Esta "percepción" es lo que diferencia cada iteración del bucle. El agente no empieza de cero en cada paso: sabe exactamente dónde está y qué ha hecho. Piensa en ello como el briefing que recibes al llegar a tu turno de trabajo: no empiezas ignorando lo que pasó antes.

2
Razonar — ¿qué debería hacer ahora?

El LLM analiza la situación y decide: ¿tengo suficiente información para dar el siguiente paso? ¿Qué herramienta necesito usar? ¿He completado la tarea o necesito más pasos? Esta fase puede incluir técnicas como chain-of-thought (razonamiento en cadena, donde el modelo "piensa en voz alta" antes de decidir), descomposición de la tarea en subtareas más pequeñas, o evaluación de si la ruta actual es la correcta o hay que cambiar de enfoque. Es el equivalente de pararte cinco segundos a pensar antes de actuar, en vez de lanzarte a lo primero que se te ocurre.

3
Actuar — ejecutar la herramienta elegida

El agente llama a una herramienta concreta: hace una búsqueda en Google, ejecuta un fragmento de código Python, navega a una URL, rellena un formulario, llama a una API externa, escribe un fichero. La acción tiene efecto en el mundo real, no solo en el contexto de la conversación. Esto es lo que hace que un agente sea cualitativamente diferente: sus acciones tienen consecuencias fuera del chat.

4
Evaluar — ¿ha funcionado? ¿hay que continuar?

El agente recibe el resultado de la acción y lo analiza. ¿La búsqueda devolvió información útil? ¿El código se ejecutó sin errores? ¿La API respondió con los datos esperados? En función de esa evaluación, el bucle vuelve a empezar (nueva iteración) o se detiene porque la tarea está completa. Un agente bien diseñado también sabe cuándo tiene que pedir ayuda al humano porque ha llegado a un punto de ambigüedad que no puede resolver solo.

Cuántas vueltas da el bucle

Una tarea sencilla (buscar un dato concreto) puede resolverse en 2-3 iteraciones. Una tarea compleja —analizar un dataset, escribir y depurar código, investigar un tema con múltiples fuentes— puede requerir 20, 50 o incluso 100 iteraciones. El coste computacional (y económico) escala con la complejidad. Por eso los agentes de IA todavía son caros de usar a gran escala y las empresas los despliegan en tareas donde el valor generado justifica el coste.

04 — 08 Qué puede hacer

Las herramientas: lo que convierte a un modelo en un agente capaz de actuar

Las herramientas son la clave. Sin ellas, un LLM es un generador de texto extremadamente sofisticado. Con ellas, se convierte en un sistema capaz de buscar, calcular, navegar, escribir, ejecutar y comunicarse con el exterior. Cada herramienta es un "superpoder" que el agente puede invocar cuando lo necesita.

🔍

Búsqueda web

El agente puede consultar Google, Bing o motores especializados en tiempo real. Esto rompe la limitación de fecha de corte de los LLMs: el agente tiene acceso a información publicada hoy, no solo a lo que había en los datos de entrenamiento. También puede verificar datos, contrastar fuentes y detectar cuando algo ha cambiado desde su última consulta.

💻

Ejecutor de código

El agente puede escribir código en Python (u otros lenguajes), ejecutarlo en un entorno aislado (sandbox) y recibir el resultado. Esto lo hace capaz de hacer cálculos precisos, procesar datos, generar gráficos, transformar ficheros, instalar librerías y depurar sus propios errores de forma autónoma. Es uno de los superpoderes más potentes: convierte al agente en un analista de datos funcional.

🌐

Navegador web

El agente puede controlar un navegador real (Chromium, por ejemplo): visitar URLs, hacer clic, rellenar formularios, extraer texto de páginas, descargar ficheros, hacer login en servicios web. Claude Computer Use de Anthropic y OpenAI Operator usan esta capacidad para realizar tareas completas en la web como lo haría un humano: reservar vuelos, tramitar solicitudes administrativas, completar flujos de compra.

🔗

APIs y conectores

El agente puede llamar directamente a APIs externas: leer y escribir en Google Calendar, enviar correos por Gmail, actualizar registros en Salesforce, crear issues en GitHub, consultar bases de datos internas de la empresa. El protocolo MCP (Model Context Protocol) de Anthropic está emergiendo como estándar para conectar agentes con sistemas empresariales de forma segura y auditable.

La analogía que funciona

El agente es como un trabajador con acceso controlado a los sistemas de la empresa

Imagina que contratas a un trabajador muy competente pero le das acceso solo a los sistemas que necesita para su trabajo: puede leer el CRM pero no borrarlo, puede enviar correos desde la cuenta del equipo pero no acceder a finanzas, puede ejecutar scripts en el servidor de test pero no en producción. Así funcionan los agentes bien diseñados: con permisos granulares que limitan el daño que pueden causar si cometen un error o son manipulados (lo que se conoce como prompt injection: un atacante que intenta redirigir las acciones del agente a través de contenido malicioso en una web que el agente visita).

05 — 08 Cómo recuerda

Memoria y planificación: cómo un agente mantiene el hilo en tareas que duran horas o días

Uno de los límites más importantes de los LLMs es la ventana de contexto: la cantidad de texto que puede "ver" el modelo a la vez. Si esa ventana se llena, el modelo empieza a perder información de los primeros pasos. En un chatbot esto se nota cuando "se olvida" de algo que dijiste al principio. En un agente que trabaja durante horas en una tarea compleja, sería catastrófico. Por eso los agentes sofisticados tienen sistemas de memoria separados del contexto puro del modelo.

📋

Memoria de trabajo (contexto)

Es la "memoria RAM" del agente: todo lo que está activo en este momento —la tarea actual, los últimos pasos, los datos que acaba de recuperar—. Tiene un límite físico (la ventana de contexto del modelo, que hoy puede ser de 200.000 tokens en los mejores modelos, equivalente a unas 150.000 palabras). Cuando se acerca al límite, el agente debe comprimir o resumir la información menos relevante para liberar espacio.

💾

Memoria a largo plazo (vectorial)

Es la "memoria disco duro": una base de datos que el agente puede consultar y actualizar. Almacena hechos aprendidos de conversaciones anteriores, preferencias del usuario, resultados de tareas pasadas, documentos de referencia. Usa tecnología de embeddings y búsqueda semántica: el agente no busca por palabras exactas sino por significado. Cuando necesita algo de su memoria larga, recupera solo los fragmentos más relevantes para no saturar el contexto.

1
Planificación hacia atrás: del objetivo a los pasos

Un agente bien diseñado no empieza a actuar de inmediato. Primero descompone el objetivo en subtareas concretas, ordenadas y con dependencias claras. Es como escribir un plan de proyecto antes de ejecutarlo. Esta planificación inicial evita muchos errores de dirección: es mucho más costoso darse cuenta a mitad de camino de que el enfoque era equivocado que corregirlo antes de empezar.

2
Re-planificación dinámica: cuando algo sale mal

El mundo real rara vez sigue el plan. Una API puede fallar, una página web puede tener una estructura diferente a la esperada, los datos pueden estar en un formato inesperado. Los agentes robustos detectan estas situaciones (evaluación en el bucle) y ajustan el plan en tiempo real: buscan una ruta alternativa, intentan una herramienta diferente, o escalan al humano si la situación supera su capacidad de resolución autónoma.

3
Agentes múltiples: dividir para conquistar

Las tareas muy complejas se resuelven mejor con varios agentes especializados que colaboran. Un agente "orquestador" divide el trabajo y lo asigna a agentes "ejecutores" especializados en áreas concretas (uno busca información, otro escribe código, otro verifica resultados). Esta arquitectura multiagente es la que permite abordar proyectos de semanas en horas, y es donde compañías como Anthropic, OpenAI y Google están invirtiendo más en 2026.

Un agente con buena memoria y capacidad de re-planificación es más fiable que un agente más "inteligente" que trabaja de forma lineal y se pierde cuando algo no encaja.
06 — 08 Casos reales

Los agentes ya están en producción: de Claude Computer Use a los bots de Salesforce

Los agentes de IA ya no son prototipos de laboratorio. Hay productos comerciales disponibles hoy que los utilizan. Algunos son "agentes de propósito general" diseñados para cualquier tarea; otros son agentes especializados integrados en flujos de trabajo empresariales concretos. Aquí los más relevantes en 2026.

Producto Empresa Qué hace Estado
Claude Computer Use Anthropic Controla el escritorio del ordenador: apps, navegador, terminal. El modelo "ve" la pantalla y ejecuta clics y pulsaciones de teclado. Disponible (API)
Operator OpenAI Navega la web de forma autónoma para completar tareas: reservar restaurantes, rellenar formularios, comprar entradas, tramitar solicitudes. Disponible (ChatGPT Pro)
Devin Cognition AI Agente de desarrollo software: escribe código, ejecuta tests, depura errores, crea pull requests en GitHub. Primer "ingeniero de software autónomo". Disponible (empresas)
GitHub Copilot Workspace Microsoft / GitHub Toma un issue de GitHub, planifica los cambios de código necesarios, implementa las modificaciones y crea el pull request listo para revisión humana. Disponible (beta)
Agentforce Salesforce Agentes integrados en el CRM que gestionan tickets de soporte, cualifican leads, actualizan registros y envían respuestas a clientes de forma autónoma. Disponible (enterprise)
Project Mariner Google DeepMind Agente que navega Chrome de forma autónoma, entiende páginas complejas y completa tareas multi-paso en la web. Preview limitado
🖥️

Claude Computer Use: el agente que ve tu pantalla

Lanzado por Anthropic en octubre de 2024, Claude Computer Use fue el primero en demostrar que un LLM puede controlar un ordenador completo a partir de capturas de pantalla. El modelo analiza visualmente la pantalla, identifica botones, menús y campos de texto, y genera las acciones necesarias (clics, escritura, desplazamientos). En demos públicas completó tareas como rellenar formularios en webs gubernamentales, instalar software, analizar datos en Excel y gestionar ficheros. La tasa de éxito en tareas complejas todavía es del 38–60% según el benchmark OSWorld, lo que significa que necesita supervisión, pero la mejora trimestral es significativa.

⚙️

Devin: el ingeniero de software que no duerme

Devin, de Cognition AI, fue presentado en marzo de 2024 como el primer "ingeniero de software totalmente autónomo". Puede leer la descripción de un bug en GitHub, analizar el código relevante, proponer la corrección, implementarla, ejecutar los tests, depurar si algo falla y crear el pull request. En el benchmark SWE-bench, que evalúa la resolución de issues reales de GitHub, Devin alcanzó el 13,86% de éxito inicial (frente al 1,96% de los mejores modelos anteriores). Una cifra que suena baja pero en problemas de ingeniería del mundo real es revolucionaria.

07 — 08 El impacto

Qué cambia en el trabajo cuando los agentes pueden hacer tareas completas, no solo asistir

Mientras los chatbots eran herramientas de asistencia —ayudaban a los humanos a trabajar más rápido—, los agentes son sustitutos funcionales para determinadas tareas completas. Esa diferencia tiene consecuencias directas en el empleo. No hipotéticas: ya están pasando en España.

ERE explícito por IA — Capgemini, abril 2026

La consultora tecnológica Capgemini anunció en abril de 2026 un ERE que afecta a cientos de trabajadores en España, siendo el primero en el sector en el que la empresa reconoció explícitamente que la IA puede realizar el trabajo que hacían esos empleados. Los perfiles afectados son principalmente desarrolladores junior, testers de software y analistas de datos de nivel medio. Capgemini señaló que agentes de IA como Devin y GitHub Copilot Workspace les permiten completar ciertos proyectos con un equipo un 40-60% más pequeño.

Segunda consultora en dos semanas — Inetum, mayo 2026

Solo días después, Inetum anunció el despido de 400 trabajadores en España, convirtiéndose en la segunda gran consultora tecnológica en iniciar un ERE con la IA como justificación declarada. La compañía citó la adopción de agentes de IA en procesos de soporte técnico, gestión de incidencias y desarrollo de software como la causa directa de la reducción de plantilla.

Perfil profesional Tareas más expuestas a agentes Nivel de riesgo a 3 años
Desarrollador junior Código boilerplate, corrección de bugs simples, tests unitarios, documentación Alto
Analista de datos Limpieza de datos, generación de informes estándar, visualizaciones rutinarias Alto
QA / Tester Tests de regresión, detección de errores, generación de casos de prueba Muy alto
Soporte técnico nivel 1 Resolución de incidencias estándar, FAQs, escalado de tickets Muy alto
Paralegal / Asistente legal Revisión de contratos, búsqueda de jurisprudencia, síntesis de documentos Medio-alto
Desarrollador senior / Arquitecto Diseño de sistemas, decisiones de negocio, supervisión de agentes Bajo (transición de rol)
Gestor de proyectos Coordinación humana, gestión de stakeholders, toma de decisiones ambiguas Bajo
📉

Qué tareas desaparecen o se reducen

Las tareas más en riesgo son las que combinan tres características: son bien definidas (hay una respuesta correcta), repetitivas (el mismo proceso una y otra vez) y basadas en información existente (no requieren juicio sobre situaciones genuinamente nuevas). Un agente puede hacer miles de estas tareas en paralelo, sin cansarse, sin cometer errores de concentración y a un coste marginal casi nulo tras la inversión inicial en configuración.

📈

Qué queda en manos humanas

Los roles que se refuerzan son los que requieren: responsabilidad legal o ética sobre decisiones (los agentes pueden equivocarse y alguien tiene que asumir la consecuencia), creatividad genuinamente novedosa (no síntesis de lo existente), relaciones de confianza interpersonal, y supervisión y auditoría de los propios agentes. El perfil más demandado en 2026: quien sabe tanto de su dominio como de cómo diseñar y supervisar agentes de IA.

08 — 08 Análisis

Los riesgos reales, las preguntas sin respuesta y lo que todavía no sabemos

Los agentes de IA abren capacidades enormes pero también introducen riesgos cualitativamente nuevos. No son los riesgos especulativos de la ciencia ficción: son problemas de ingeniería, legales y sociales que ya están en los tribunales, en los parlamentos y en los manuales de los departamentos de recursos humanos.

🌀

Alucinaciones con consecuencias reales

Un chatbot que alucina (inventa un dato que no existe) causa un malentendido. Un agente que alucina y actúa puede enviar un correo con información errónea a un cliente, borrar un fichero equivocado, hacer una compra no autorizada o modificar un registro en una base de datos. La diferencia entre alucinación pasiva y activa es enorme. En 2024, un abogado en EE.UU. fue sancionado por presentar al tribunal jurisprudencia inventada por ChatGPT. Con agentes autónomos, ese tipo de errores podría ejecutarse sin intervención humana.

⚖️

Responsabilidad legal: ¿quién responde cuando el agente falla?

Si un agente de IA toma una decisión equivocada que causa un daño, ¿quién es responsable? ¿La empresa que lo desplegó? ¿La empresa que fabricó el modelo? ¿El usuario que dio el objetivo? En la UE, el Reglamento de IA (que entra en vigor el 2 de agosto de 2026) establece categorías de riesgo y obligaciones de auditoría para sistemas de IA de alto riesgo, pero la casuística de los agentes autónomos todavía no está completamente cubierta por la legislación.

🕵️

Prompt injection

Un atacante puede insertar instrucciones maliciosas en el contenido que el agente procesa (una web, un correo, un documento). Si el agente no tiene mecanismos de defensa, puede ser redirigido para ejecutar acciones no autorizadas. Es el equivalente de poner un Post-it con instrucciones falsas en el escritorio de tu nuevo becario.

🔐

Escalada de privilegios

Si un agente tiene acceso excesivo a los sistemas de la empresa y comete un error —o es manipulado—, el daño puede ser catastrófico. El principio del mínimo privilegio (dar al agente solo los permisos que necesita para su tarea concreta) es esencial pero difícil de implementar en la práctica.

👁️‍🗨️

Supervisión y auditabilidad

¿Cómo sabe la empresa qué ha hecho exactamente el agente durante las ocho horas que trabajó de forma autónoma? Sin registros detallados de cada acción y cada decisión, la auditoría es imposible. Esto es un requisito legal en sectores regulados (banca, sanidad, defensa) y un desafío técnico activo.

¿Cuándo un agente de IA es lo bastante fiable para que le confiemos consecuencias irreversibles? ¿Y quién decide que ha llegado a ese umbral?
Preguntas abiertas

Lo que no tiene respuesta todavía

  • La tasa de éxito de los mejores agentes en tareas complejas sigue siendo del 40-70%. ¿Cuál es el umbral aceptable de autonomía sin supervisión constante?
  • Los ERE de Capgemini e Inetum son los primeros. ¿Habrá una ola generalizada en las consultoras tecnológicas antes de 2027, o el crecimiento del sector absorberá la eficiencia?
  • El Reglamento de IA de la UE clasifica los "sistemas de IA de propósito general" como categoría separada. ¿Los agentes autónomos de alto riesgo tendrán que someterse a certificación previa a su despliegue?
  • ¿El coste de supervisar y auditar agentes en sectores regulados superará el ahorro de automatizar? Algunos análisis internos de grandes bancos europeos apuntan a que sí, para ciertos procesos.
  • McKinsey estima que el 70% de las tareas cognitivas rutinarias serán automatizables para 2030. ¿Cómo se redistribuirán los trabajadores desplazados en una economía que todavía no ha definido los nuevos roles?

Lee también

Nota metodológica

Cómo hemos construido este artículo

Los mecanismos técnicos descritos (bucle percibir-razonar-actuar, tipos de memoria, arquitecturas multiagente) están basados en la documentación pública de Anthropic sobre Claude y el Model Context Protocol (mayo 2026), en los papers técnicos de OpenAI sobre Operator y GPT-4o (2024-2025), en el informe "The State of AI Agents" de McKinsey Global Institute (enero 2026) y en el benchmark OSWorld para evaluación de agentes de control de ordenador (Universidad de Michigan, 2024). Los datos sobre Devin/Cognition AI proceden del paper original de SWE-bench (Princeton/Chicago, 2024). Los EREs de Capgemini e Inetum están recogidos en los artículos de noticias enlazados en la sección "Lee también". La tabla de empleos afectados es una síntesis de los informes de OCDE (2024), Goldman Sachs (2023) y el análisis de exposición ocupacional de Anthropic (2025), adaptada al mercado español. Cualquier dato que deba ser corregido o actualizado: redaccion@horadedespertar.org. Consulta realizada en mayo de 2026.

← Todos los artículos de Educación