Claude Code en su momento ChatGPT
Claude Code está en su momento ChatGPT.
Si por ahora sigue siendo cosa de un círculo de gente muy metida en el desarrollo de la inteligencia artificial es porque está planteado como una herramienta para programadores y, además, se utiliza desde la línea de comandos.
Hacia el agente de IA como compañero de trabajo
Hace unas semanas, Jaana Dogan, ingeniera senior de Google, publicó algo extraordinario, sobre todo teniendo en cuenta que hablaba de la competencia: “No bromeo y esto no tiene gracia. Llevamos intentando crear orquestadores de agentes distribuidos en Google desde el año pasado. Hay varias opciones, pero no todos están de acuerdo... Le di a Claude Code una descripción del problema y generó lo que creamos el año pasado en una hora.”
“Claude Code es el símbolo, el representante, de una generación de agentes de inteligencia artificial que han logrado uno de los objetivos de la industria: les puedes asignar tareas como a un compañero de trabajo humano”
Basta pasearse por cuentas en plataformas y blogs del mundillo de la IA para tropezarse una y otra vez con el mismo patrón: usuarios muy técnicos que se quedan boquiabiertos ante el salto que ha vuelto a dar la inteligencia artificial en programación. Tanto GPT-5.2 como Opus 4.5 de Anthropic (yo añadiría Gemini 3, por cierto) han dado ese paso incremental que uno también ha querido comprobar: con Antigravity y Claude Code siento que he acortado en meses el proceso de volver a programar después de muchos años. Que lo que me tomaría semanas ahora son horas. Y que lo era la tarea de programar, ha cambiado para siempre.
Y es que Claude Code es el símbolo, el representante, de una generación de agentes de inteligencia artificial que han logrado uno de los objetivos de la industria: les puedes asignar tareas como a un compañero de trabajo humano. Y en un grandísimo número de ocasiones te lo devuelven terminado, en fondo y forma, de manera impecable. Por si fuera poco, cada vez más la complejidad y duración del trabajo que les puedes encomendar es mayor.
Ese salto del “copiloto asistente” al “agente en el que puedo delegar” eleva el valor de la inteligencia artificial. En lo económico, empieza a representar una fracción cada vez mayor de la capacidad de un profesional del conocimiento bien pagado; en la disciplina sientes que ahora eres capaz de crear mucho más, a más velocidad y con más calidad.
Uno sigue objetando que el humano en el proceso es fundamental y que tienes que saber de la disciplina, por mucho que se postule que con los agentes toca orquestar: por debajo hay LLMs que inventan y alucinan. Pero lo que estoy viendo con esta generación (también con Codex de OpenAI) me ha devuelto al optimismo y al hype. La IA necesita supervisión, pero cada vez menos.
Hacia una IA capaz de mejorarse a sí misma
Dario Amodei, CEO de Anthropic, predijo que en 2025 la IA generaría ya el 90% del código software. Sea porque fue malinterpretado, sea porque pecó de optimista, su vaticinio no se cumplió ni en su propia empresa.
Pero en algunos equipos ya están ahí. Boris Cherny, el creador de Claude Code, reveló que en los últimos treinta días, el 100% de sus contribuciones al repositorio de Claude Code fueron escritas por Claude Code. Cuarenta mil líneas de código nuevo. La herramienta - con humanos en el proceso - se podría decir que se está escribiendo a sí misma.
Recordemos lo que ya hemos discutido en alguna ocasión: los laboratorios de IA están en la carrera de automatizar la investigación científica. Esto, en las ciencias empíricas que necesitan pruebas físicas, sólo puede ser parcial. Pero en inteligencia artificial habrá una aceleración enorme cuando los investigadores, programadores y personal que hace las pruebas sean en su mayoría agentes de IA.
Con Claude Code hay algo de trampa en el proceso de automejora. Deudor de la IA actual, tiene una ventana de contexto acotada (no se acuerda de todo lo que ha ayudado a programar antes) y el modelo base no cambia, no mejora realmente ni aprende de sus errores. Cherny explica cómo cada equivocación del agente lo documentan y lo llevan al archivo de proyecto CLAUDE.md: el error se convierte en una regla.
Hacia la AGI (o el regreo del optimismo en inteligencia artificial)
Si el lanzamiento de GPT 5 supuso el enfriamiento con esta generación de IA, creo que probar y asomarse a las capacidades de los agentes de programación actuales supone un nuevo cambio de tendencia.
Dean Ball, investigador de la Universidad George Mason, tuiteó algo provocador: “Opino que Opus 4.5 en Claude Code es básicamente AGI”. No es el único.
No puedo estar de acuerdo con esa tesis, sobre todo entendiendo la AGI como la inteligencia de nivel humano en cada aspecto de la misma, no sólo en un contexto delimitado como es la programación o la gestión de información y la escritura de código. Sí que podríamos estar cerca de que la inteligencia artificial tenga el nivel humano (no el de cualquiera, sino el de un profesional competente) en desarrollo software.
Atendería además a lo que contaba Molly Cantillon sobre su uso de Claude Code como un “panópticon personal”: describe tener ocho instancias corriendo en paralelo permanentemente con una para métricas, otra para email, otra para escritura, otra para gestión de inversiones... “El obstáculo ya no es la habilidad. El obstáculo es la energía de activación: quién tiene el coraje de intentarlo y la terquedad de terminarlo. Esto favorece a los nuevos participantes.”
Claude Code usado de esta manera, ya no es una IA, es un ecosistema de IAs que se coordinan, se corrigen mutuamente y mejoran colectivamente su rendimiento a través de documentación que ellas mismas ayudan a refinar. En el uso de Cantillon, el nivel de los agentes ya no descolla en programación sino que la IA puede usar cualquier software, automatizar cualquier flujo de trabajo, ejecutar cualquier cosa que un humano con acceso a un ordenador podría hacer.
Puede que uno se entusiasme fácilmente y se contagie del hype, puede que uno tienda a ser optimista por naturaleza, pero lo que me sale es acabar el post con aquella canción de REM… “Es el fin del mundo tal y como lo conocemos y me siento bien”.
Imágentes: Antonio Ortiz con Freepik.






La expectativa singularista seguirá apareciendo recurrentemente. Al menos hasta que un buen correctivo desinfle la burbuja especulativa. Y cuando se recupere, volverá a aflorar. Ese horizonte de expectativa está en el sino humano y la de la AGI y tras ella la superinteligencia es una de las escatologías postmodernas que más "sentido" tienen hoy, azuzada además por el sesgo presentista (queremos vivir en épocas "históricas", y no sentir que pertenecemos a una época que pasará al olvido).