Hemos confundido durante demasiado tiempo el mecanismo que entrenó a estos modelos con la mejor explicación posible de lo que hoy son capaces de hacer.
Siempre tengo un montón de dudas con todo, y más con la IA; pero, amigo, no deja de sorprenderme que todavía pienses que "habrá debate", o sea, que hay dudas en relación a que si "los modelos razonadores podrán generalizar" o si "se ampliará a cualquier otra área del conocimiento y la creatividad". Las pistas que ya tenemos son tan evidentes en esto y, sobre todo, lo vertiginoso de todo, una sorpresa tras otra (para mí no lo son) de lo que son capaces de hacer muchísimo más allá que lo esperado de "loros estocásticos". Tienes razón, hay muchísima desinformación culta y también, intereses en anestesiarnos. Se pasa en puntillas sobre el lío de los "efectos emergentes", que tú deslizas muy ligeramente, pero que están ahí, e irán a más. Esa complejidad, aunque no haya sido programada explícitamente, que surgen por la interacción interna de esos modelos, lleva inevitablemente a hacer cosas que nadie planeó directamente, por mucho que nos vendan que "todo está controlado", total, "son monos" que repiten y solo son capaces de predecir lo que viene después. ¡¡Pues no!!
El loro estocástico era el lema que encajaba en una narrativa perfecta y servía de gancho para todos aquéllos que criticaban a estos sistemas. Hoy en día, la planificación de los LLMs, los modelos del mundo, las tácticas para convencer... todo eso no es un loro, y es algo más.
Eso no significa que un LLM sea un humano, ni que sea consciente o que vaya a serlo, ni que tenga comportamientos emergentes. De todo ello yo aún tengo bastantes lagunas, y por lo que leo en otros blogs quizás no logremos estas características por este camino de modelos autorregresivos.
Aunque, a base de acumulación, los LLMs contengan una sombra del mundo, por construcción, es necesariamente del mundo que hemos narrado, del que hemos hablado, sobre el que hemos reflexionado. Será la sombra de nuestro espejismo del mundo. Solo cuando las redes neurales se entrenen con sus propio ojos tendrán su propio modelo del mundo.
Para mí, que soy informático pero no trabajo en el entorno de la IA, me surgen dos dudas de cara a futuro que me gustaría que tratarais (lo mismo están resueltas):
1. Si la IA aprende de nosotros y nosotros dejamos de crear, ¿de donde aprenderá después? Un ejemplo es la web donde cada vez hay más contenido 100% IA.
2. La IA es una caja negra, no se puede a día de hoy asegurar qué va a razonar para poder auditar un proceso y decir que es 100% fiable. ¿Llegará el día en que sí se pueda asegurar ese 100%? Entiendo que a día de hoy, viendo Claude, parece que lo solucionan con pruebas posteriores pero no todo se puede probar.
En las primeras fases de la IA que comentas, en la que hablaba de todo aunque no supiera, me gustaba más el término "cuñado estocástico" xD
Siempre tengo un montón de dudas con todo, y más con la IA; pero, amigo, no deja de sorprenderme que todavía pienses que "habrá debate", o sea, que hay dudas en relación a que si "los modelos razonadores podrán generalizar" o si "se ampliará a cualquier otra área del conocimiento y la creatividad". Las pistas que ya tenemos son tan evidentes en esto y, sobre todo, lo vertiginoso de todo, una sorpresa tras otra (para mí no lo son) de lo que son capaces de hacer muchísimo más allá que lo esperado de "loros estocásticos". Tienes razón, hay muchísima desinformación culta y también, intereses en anestesiarnos. Se pasa en puntillas sobre el lío de los "efectos emergentes", que tú deslizas muy ligeramente, pero que están ahí, e irán a más. Esa complejidad, aunque no haya sido programada explícitamente, que surgen por la interacción interna de esos modelos, lleva inevitablemente a hacer cosas que nadie planeó directamente, por mucho que nos vendan que "todo está controlado", total, "son monos" que repiten y solo son capaces de predecir lo que viene después. ¡¡Pues no!!
Vais a tener que cambiar el nombre del programa al podcast a este paso :)
El loro estocástico era el lema que encajaba en una narrativa perfecta y servía de gancho para todos aquéllos que criticaban a estos sistemas. Hoy en día, la planificación de los LLMs, los modelos del mundo, las tácticas para convencer... todo eso no es un loro, y es algo más.
Eso no significa que un LLM sea un humano, ni que sea consciente o que vaya a serlo, ni que tenga comportamientos emergentes. De todo ello yo aún tengo bastantes lagunas, y por lo que leo en otros blogs quizás no logremos estas características por este camino de modelos autorregresivos.
Buen post, Antonio.
Aunque, a base de acumulación, los LLMs contengan una sombra del mundo, por construcción, es necesariamente del mundo que hemos narrado, del que hemos hablado, sobre el que hemos reflexionado. Será la sombra de nuestro espejismo del mundo. Solo cuando las redes neurales se entrenen con sus propio ojos tendrán su propio modelo del mundo.
Para mí, que soy informático pero no trabajo en el entorno de la IA, me surgen dos dudas de cara a futuro que me gustaría que tratarais (lo mismo están resueltas):
1. Si la IA aprende de nosotros y nosotros dejamos de crear, ¿de donde aprenderá después? Un ejemplo es la web donde cada vez hay más contenido 100% IA.
2. La IA es una caja negra, no se puede a día de hoy asegurar qué va a razonar para poder auditar un proceso y decir que es 100% fiable. ¿Llegará el día en que sí se pueda asegurar ese 100%? Entiendo que a día de hoy, viendo Claude, parece que lo solucionan con pruebas posteriores pero no todo se puede probar.
Gracias por este blog.
Define demasiado listo por favor.