Delegar de manera inteligente
Imagine que contrata a un pasante excesivamente entusiasta. Llega temprano, trabaja sin descanso y responde a cada solicitud con una velocidad asombrosa porque está ansioso por complacer. Hay un problema: cuando no sabe algo, improvisa con tanta convicción que resulta difícil distinguir sus aciertos de sus errores. Usa tecnicismos que suenan creíbles, construye argumentos plausibles y, sobre todo, es incapaz de decir "no sé" o "esto me excede". De todas formas, como es un pasante, nadie lo puede responsabilizar cuando las cosas salen mal. Entonces, usted termina revisando todo lo que hace, todo el tiempo. Lo que iba a ser una descarga de trabajo se convierte en una carga adicional de supervisión.
Esta metáfora describe con bastante precisión el estado actual de muchos sistemas de inteligencia artificial agéntica. Son rápidos, versátiles y cada vez más capaces, pero delegar en ellos de forma confiable sigue siendo un problema sin resolver. Y este es precisamente el punto de partida de Intelligent AI Delegation, un artículo publicado en febrero de 2026 por Nenad Tomašev, Matija Franklin y Simon Osindero, investigadores de Google DeepMind.
Cuando la fragilidad se disfraza de eficiencia
Para Tomašev y colaboradores, los sistemas multiagente actuales dependen de reglas rígidas y heurísticas simples para repartir tareas. Funcionan razonablemente bien en condiciones controladas, pero ante un cambio inesperado —un recurso que deja de estar disponible, un resultado intermedio que no supera una verificación, un agente que deja de responder— carecen de mecanismos para adaptarse. No saben recalcular la ruta. No pueden renegociar condiciones. Y cuando fallan, lo hacen en silencio y en cascada.
El problema es que la IA no tiene mecanismos para contrastar sus resultados contra un marco contextualizado de objetivos. Justamente lo que hace un profesional bien formado y con experiencia. Ahora bien, ¿cuáles son las causas y cómo las corregimos?
La zona donde nadie cuestiona nada
Una de las ideas más sugerentes del artículo proviene de la teoría organizacional clásica: la zona de indiferencia. Este concepto describe el rango de instrucciones que una persona —o, en este caso, un agente— ejecuta sin cuestionarlas. En los sistemas de IA actuales, esta zona está definida por los filtros de seguridad y las instrucciones del sistema: si una solicitud no activa una restricción explícita, el modelo simplemente obedece.
¿Cuál es el riesgo? Que en cadenas de delegación largas —donde un agente le pasa una tarea a otro, que a su vez se la pasa a un tercero— los desajustes sutiles entre la intención original y la ejecución final se amplifican sin que nadie los detecte. Cada agente actúa como un eslabón obediente, pero ninguno se detiene a preguntarse si lo que está haciendo todavía tiene sentido en el contexto general.
El equipo de Tomašev propone lo que denominan fricción cognitiva dinámica, esto es, diseñar agentes capaces de reconocer cuándo una solicitud, aunque técnicamente válida, es lo suficientemente ambigua como para justificar una consulta a un supervisor humano.
La zona de hundimiento moral
Otro concepto que el artículo rescata es el de la zona de hundimiento moral (moral crumple zone), acuñado por Madeleine Clare Elish. Se refiere a situaciones en las que se hace partícipe a un ser humano en una cadena de decisiones automatizadas no para ejercer un control real, sino para absorber la responsabilidad cuando algo sale mal. El humano tiene la autoridad nominal, pero carece de conexión efectiva con el proceso.
En el contexto de la delegación agéntica, esto se traduce en un escenario peligroso: un usuario aprueba rutinariamente las acciones de un sistema que no comprende del todo. Cuando se produce un error en una tarea, la responsabilidad recae sobre el profesional que firmó, no sobre la IA que lo ejecutó. Es el equivalente a pedirle a alguien que firme un contrato en un idioma que no domina.
Un marco para delegar con inteligencia
Frente a estos problemas, el equipo de DeepMind no propone eliminar la delegación, sino hacerla inteligente. Su marco se organiza en torno a cinco principios:
- Evaluación dinámica de capacidades,
- Ejecución adaptativa,
- Transparencia estructural,
- Coordinación de mercado escalable y
- Resiliencia sistémica.
En términos prácticos, esto implica que debe ser posible verificar cada tarea delegada con mecanismos concretos —desde pruebas automatizadas hasta pruebas criptográficas de conocimiento cero—. Que cada paso del proceso debe quedar documentado de forma auditable. Que los permisos otorgados a un agente deben ser revocables y limitados al mínimo necesario. Y que, cuando un agente subdelega una tarea a otro, los permisos deben atenuarse progresivamente, nunca ampliarse.
No se trata de confiar ciegamente ni de supervisar cada decisión, sino de diseñar sistemas donde la confianza se construye, se calibra y se ajusta dinámicamente, del mismo modo en que funciona —o debería funcionar— cualquier relación profesional.
No trabajar menos, sino mejor
La conclusión que se desprende de este trabajo conecta con una idea que Marshall McLuhan articuló décadas atrás al pensar las tecnologías como extensiones humanas: cada nueva herramienta amplifica una capacidad, pero también transforma la relación de quien la usa con su entorno. La inteligencia artificial, en este sentido, no es una tecnología para trabajar menos. Es una tecnología para trabajar más rápido, obtener mejores resultados y hacerlo con menor esfuerzo. Pero el trabajo no se puede delegar por completo.
El pasante superentusiasta del inicio no deja de ser valioso. Lo que necesita es un marco claro de responsabilidades, mecanismos de supervisión proporcionados a la criticidad de cada tarea y, sobre todo, un humano que sepa cuándo confiar en él y cuándo intervenir. El mejor resultado no se obtiene reemplazando al humano por la máquina, ni supervisando a la máquina como si fuera un empleado poco confiable. Se obtiene trabajando colaborativamente, donde cada parte aporta lo que mejor sabe hacer.
El mensaje central de Tomašev, Franklin y Osindero puede parafrasearse así: la delegación inteligente no es un problema exclusivamente técnico. Es un desafío de diseño organizacional, ético y humano.
Artículo citado
Tomašev, N., Franklin, M., & Osindero, S. (2026). Intelligent AI Delegation. arXiv preprint arXiv:2602.11865. Google DeepMind.
Transparencia en el uso de la IA
Búsqueda de fuentes asistida por scite.
Artículo elaborado con asistencia de Claude (análisis y síntesis del paper fuente).
La redacción final fue editada por el autor, mientras que las correcciones de ortografía, gramática y estilo estuvieron asistidas por LanguageTool.
Las imágenes fueron generadas por Gemini Nanobanana 2.
