7 Comentarios
Avatar de User
Avatar de Nacho

En las primeras fases de la IA que comentas, en la que hablaba de todo aunque no supiera, me gustaba más el término "cuñado estocástico" xD

Avatar de Amalio A. Rey

Siempre tengo un montón de dudas con todo, y más con la IA; pero, amigo, no deja de sorprenderme que todavía pienses que "habrá debate", o sea, que hay dudas en relación a que si "los modelos razonadores podrán generalizar" o si "se ampliará a cualquier otra área del conocimiento y la creatividad". Las pistas que ya tenemos son tan evidentes en esto y, sobre todo, lo vertiginoso de todo, una sorpresa tras otra (para mí no lo son) de lo que son capaces de hacer muchísimo más allá que lo esperado de "loros estocásticos". Tienes razón, hay muchísima desinformación culta y también, intereses en anestesiarnos. Se pasa en puntillas sobre el lío de los "efectos emergentes", que tú deslizas muy ligeramente, pero que están ahí, e irán a más. Esa complejidad, aunque no haya sido programada explícitamente, que surgen por la interacción interna de esos modelos, lleva inevitablemente a hacer cosas que nadie planeó directamente, por mucho que nos vendan que "todo está controlado", total, "son monos" que repiten y solo son capaces de predecir lo que viene después. ¡¡Pues no!!

Avatar de Gorka Corres Zamácola

Vais a tener que cambiar el nombre del programa al podcast a este paso :)

Avatar de Julian Estevez

El loro estocástico era el lema que encajaba en una narrativa perfecta y servía de gancho para todos aquéllos que criticaban a estos sistemas. Hoy en día, la planificación de los LLMs, los modelos del mundo, las tácticas para convencer... todo eso no es un loro, y es algo más.

Eso no significa que un LLM sea un humano, ni que sea consciente o que vaya a serlo, ni que tenga comportamientos emergentes. De todo ello yo aún tengo bastantes lagunas, y por lo que leo en otros blogs quizás no logremos estas características por este camino de modelos autorregresivos.

Buen post, Antonio.

Avatar de Johan Paz

Aunque, a base de acumulación, los LLMs contengan una sombra del mundo, por construcción, es necesariamente del mundo que hemos narrado, del que hemos hablado, sobre el que hemos reflexionado. Será la sombra de nuestro espejismo del mundo. Solo cuando las redes neurales se entrenen con sus propio ojos tendrán su propio modelo del mundo.

Avatar de Nacho

Para mí, que soy informático pero no trabajo en el entorno de la IA, me surgen dos dudas de cara a futuro que me gustaría que tratarais (lo mismo están resueltas):

1. Si la IA aprende de nosotros y nosotros dejamos de crear, ¿de donde aprenderá después? Un ejemplo es la web donde cada vez hay más contenido 100% IA.

2. La IA es una caja negra, no se puede a día de hoy asegurar qué va a razonar para poder auditar un proceso y decir que es 100% fiable. ¿Llegará el día en que sí se pueda asegurar ese 100%? Entiendo que a día de hoy, viendo Claude, parece que lo solucionan con pruebas posteriores pero no todo se puede probar.

Gracias por este blog.

Avatar de Opiniones no solicitadas

Define demasiado listo por favor.