Jack Clark, cofundador de Anthropic, ha expresado una inquietante conclusión tras analizar datos públicos sobre inteligencia artificial. Según él, existe una probabilidad considerable de que un sistema de IA pueda desarrollar a su propio sucesor sin necesidad de intervención humana. Clark estima que esta posibilidad es alta y podría materializarse antes de que finalice la década actual.
Esta predicción se fundamenta en la creciente automatización de la investigación y el desarrollo en el campo de la IA. Actualmente, el entrenamiento de nuevos modelos requiere la colaboración de numerosos ingenieros e investigadores. Sin embargo, Clark sugiere que el proceso completo, desde el diseño experimental hasta la implementación técnica, podría ser asumido por los propios sistemas de IA en un ciclo de mejora continua.
La idea de Clark se apoya en las avanzadas capacidades de los sistemas de IA para escribir y revisar código de forma autónoma. Un ejemplo notable es el benchmark SWE-Bench, que evalúa la habilidad de la IA para solucionar problemas reales de ingeniería de software. Los datos muestran un progreso asombroso: si en 2023 Claude 2 tenía un 2% de éxito en esta prueba, modelos más recientes alcanzan casi el 94%.
Un indicador aún más revelador proviene de METR, una organización que mide el tiempo que un experto humano tardaría en realizar las mismas tareas que los modelos de IA ejecutan de forma autónoma. Mientras que en 2022 los sistemas podían completar tareas que a un humano le llevarían unos 30 segundos, para principios de 2026 ese umbral se sitúa en torno a las 12 horas, y se prevé que alcance las 100 horas antes de que termine el año.
La evolución clave que señala el cofundador de Anthropic es que los sistemas de IA están comenzando a gestionar otros sistemas. Clark lo denomina «equipos sintéticos», donde diferentes modelos asumen roles de directores, críticos o ingenieros, emulando la estructura de un equipo de investigación humano.
Este avance se ve reforzado por los esfuerzos de empresas como OpenAI y la propia Anthropic, que están desarrollando investigadores de IA. Sam Altman, CEO de OpenAI, anunció que su objetivo es crear un «becario de investigación en IA automatizada» para septiembre de 2026, con la ambición de que se convierta en un «verdadero investigador» para marzo de 2028, impulsado por cientos de miles de GPUs. Anthropic, por su parte, ha confirmado que está trabajando en «investigadores de alineación automatizados».
La posibilidad de que un sistema de IA se desarrolle a sí mismo sin ayuda humana tendría tres consecuencias principales, según Clark:
- Alineación: Si un sistema influye en su propio entrenamiento, los errores podrían acumularse con cada nueva generación.
- Economía: La IA multiplica la productividad, lo que plantea serias preguntas sobre el acceso equitativo a esta ventaja y podría conducir a economías dominadas por empresas con grandes recursos y escasa mano de obra humana.
- Sociedad: Un sistema de autodesarrollo podría reconfigurar radicalmente el panorama laboral y empresarial.
A pesar de estas predicciones, Jack Clark es prudente sobre los límites de la investigación científica actual. Señala que la creatividad heterodoxa sigue siendo un dominio humano que los modelos de IA no han replicado de manera consistente. Si bien predice que esto último no ocurrirá en 2026, la tendencia hacia la IA que se autodesarrolla es innegable y podría acelerarse más de lo esperado.
