Вт. Май 5th, 2026

La IA podría crear sus propios sucesores pronto, según el cofundador de Anthropic

Jack Clark, uno de los fundadores de Anthropic, ha llegado a una conclusión que él mismo califica de inquietante tras analizar datos públicos sobre inteligencia artificial. Clark estima que existe una alta probabilidad de que un sistema de IA sea capaz de desarrollar a su propio sucesor sin necesidad de intervención humana. Predice que esto podría suceder incluso antes de que termine la presente década.

Esta perspectiva se basa en la creciente automatización en la investigación y el desarrollo de la IA. Actualmente, la creación de un nuevo modelo de IA implica el trabajo de numerosos ingenieros e investigadores. Sin embargo, Clark sugiere que este proceso completo, desde el diseño experimental hasta la implementación técnica, podría ser asumido por los propios sistemas de IA en un ciclo autosostenible.

El cofundador de Anthropic fundamenta su análisis en las capacidades demostradas por los sistemas de IA para escribir y revisar código de forma autónoma. Un ejemplo claro es el benchmark SWE-Bench, que evalúa la aptitud de la IA para resolver problemas reales de ingeniería de software en GitHub. Los datos muestran un avance espectacular: de un 2% de éxito con Claude 2 en 2023, se ha pasado a casi el 94% con modelos más recientes.

Una métrica aún más reveladora proviene de METR, una organización que mide el tiempo que un experto humano tardaría en realizar las mismas tareas que los modelos de IA ya ejecutan de forma autónoma. En 2022, los sistemas completaban tareas que a un humano le llevarían 30 segundos. Para principios de 2026, este umbral se ha reducido a unas 12 horas, y se prevé que alcance las 100 horas antes de que finalice el año.

Los sistemas de IA están empezando a gestionar otros sistemas

El avance clave, según Clark, reside en que los sistemas de IA están comenzando a gestionar otros sistemas. Él lo denomina «equipos sintéticos», donde diferentes modelos actúan como directores, críticos e ingenieros, replicando la estructura de un equipo de investigación humano.

A esto se suma que compañías como OpenAI y la propia Anthropic están desarrollando «investigadores» basados en IA. Sam Altman, CEO de OpenAI, anunció que su objetivo es tener un «becario de investigación en IA automatizada» para septiembre de 2026, con la visión de convertirlo en un «verdadero investigador» para marzo de 2028, utilizando cientos de miles de GPUs.

Altman proyecta: «En 2026 esperamos que nuestros sistemas de IA puedan hacer pequeños descubrimientos nuevos; en 2028 podríamos estar hablando de grandes proyectos». Anthropic, por su parte, ha confirmado que está trabajando en «investigadores de alineación automatizados».

La pregunta crucial es qué implicaría este escenario. Clark identifica tres consecuencias significativas si un sistema de IA lograra desarrollar a sus sucesores de forma autónoma.

La primera concierne a la alineación: si un sistema influye en su propio entrenamiento, los errores podrían acumularse en cada generación. La segunda es de índole económica, ya que la IA multiplica la productividad, lo que plantea interrogantes sobre el acceso a esta ventaja. La tercera, y quizás la más impactante para las personas, es la creación de una economía dominada por empresas con gran capital y una fuerza laboral humana reducida, debido a la autogeneración de sistemas de IA.

A pesar de sus predicciones, Clark es honesto sobre las limitaciones. Considera que la investigación científica requiere una creatividad «heterodoxa» que los modelos actuales aún no demuestran de manera consistente. Si bien no cree que esto ocurra en 2026, la tendencia es clara y la posibilidad de que suceda antes de lo esperado está presente.

By Артём Науменко

Артём Науменко - петербургский журналист, освещающий темы науки, общества и технологий. Автор популярного цикла статей о российских научных достижениях.

Related Post