10 Comentarios
Avatar de User
Avatar de Nacho

En las primeras fases de la IA que comentas, en la que hablaba de todo aunque no supiera, me gustaba más el término "cuñado estocástico" xD

Avatar de Amalio A. Rey

Siempre tengo un montón de dudas con todo, y más con la IA; pero, amigo, no deja de sorprenderme que todavía pienses que "habrá debate", o sea, que hay dudas en relación a que si "los modelos razonadores podrán generalizar" o si "se ampliará a cualquier otra área del conocimiento y la creatividad". Las pistas que ya tenemos son tan evidentes en esto y, sobre todo, lo vertiginoso de todo, una sorpresa tras otra (para mí no lo son) de lo que son capaces de hacer muchísimo más allá que lo esperado de "loros estocásticos". Tienes razón, hay muchísima desinformación culta y también, intereses en anestesiarnos. Se pasa en puntillas sobre el lío de los "efectos emergentes", que tú deslizas muy ligeramente, pero que están ahí, e irán a más. Esa complejidad, aunque no haya sido programada explícitamente, que surgen por la interacción interna de esos modelos, lleva inevitablemente a hacer cosas que nadie planeó directamente, por mucho que nos vendan que "todo está controlado", total, "son monos" que repiten y solo son capaces de predecir lo que viene después. ¡¡Pues no!!

Avatar de Gorka Corres Zamácola

Vais a tener que cambiar el nombre del programa al podcast a este paso :)

Avatar de Julian Estevez

El loro estocástico era el lema que encajaba en una narrativa perfecta y servía de gancho para todos aquéllos que criticaban a estos sistemas. Hoy en día, la planificación de los LLMs, los modelos del mundo, las tácticas para convencer... todo eso no es un loro, y es algo más.

Eso no significa que un LLM sea un humano, ni que sea consciente o que vaya a serlo, ni que tenga comportamientos emergentes. De todo ello yo aún tengo bastantes lagunas, y por lo que leo en otros blogs quizás no logremos estas características por este camino de modelos autorregresivos.

Buen post, Antonio.

Avatar de Juan Luis

No tengo ni la más remota idea de cómo da las respuestas los llm. No sé si es estadística u otra cosa. Sé que responden de una forma demasiado humana para ser solo un loro. Una de las cosas más importantes, creo yo, para diferenciarnos es la imaginación y creatividad. Pero sobre eso, cabe preguntarse que entendemos por esos conceptos. Cuando pedimos, por ejemplo, que cuente una historia de fantasía, sabemos (o creemos saber) que lo hace porque ha sido entrenado con millones de textos y puede crear uno estadísticamente a partir de ellos. Pero que la mezcla sea original y tenga sentido, ¿no es un tipo de creatividad? ¿No es lo mismo que una persona que escribe en base a su experiencia y a los estilos y lec tura de otros autores que le han marcado?

Muchos inventos fueron más fruto de saber relacionar estudios anteriores de una forma que nadie había pensado. Lo mismo puede hacer hoy la IA. ¿ Diríamos que esas personas son loros y que no tiene valor su aportación?

No creo que aun se haya llegado al punto de la capacidad humana. Son más efectivos por la capacidad de procesas ideas, conceptos, etc. a una velocidad que nosotros ni en 10 vidas llegaríamos. Y producir ideas y conceptos nuevos inferidos de los existentes.

Dicho esto, ¿ Si datos en los que basarse, llegarían a inferir la ley de la gravedad solo observando la caída de una manzana y la rotación de la luna? Creo que no, porque falta la capacidad de observar y sentir la realidad. Parafraseando a lo que se decía en el indomable wiil hunting, "puedes darme datos y carateristica y detalles de la capilla sixtina, pero nunca sentirás lo que es estar allí" y añado, lo que esa experiencia puede afectarte.

No sé, ni puedo siquiera imaginar, como evolucionará todo, porque más allá de lo que pueda hacer o no la IA, está el uso que se dé y como la entrenemos. ( ¿ Las tres leyes de Asimov? 😄)

Avatar de Dario Salud Leona

Hay algo muy interesante en cómo lo planteas Antonio porque tocas justo el punto donde mucha gente se queda atascada.

Confundir cómo se entrena un sistema con lo que el sistema acaba siendo es como si redujéramos al ser humano a un organismo diseñado para reproducirse y desde ahí intentáramos explicar todo lo demás, es cierto pero es completamente insuficiente para entender lo que vemos cuando alguien crea, decide o reflexiona.

Con la IA pasa algo parecido, la predicción de tokens explica el origen pero no describe bien el comportamiento emergente que aparece después y creo que hay una clave que lo aterriza mucho que es la utilidad.

Cuando trabajas con estos modelos de verdad dejas de pensar en ellos como un mecanismo concreto y empiezas a interactuar con un sistema que interpreta contexto, ajusta respuestas, detecta incoherencias, itera y a veces incluso te obliga a afinar tu propio pensamiento y ahí la etiqueta de loro se queda muy corta.

Quizá el debate interesante ya no es si piensan o no sino algo más práctico y más incómodo que es preguntarse qué tipo de sistemas estamos construyendo realmente y qué tipo de pensamiento vamos a delegar en ellos porque como bien apuntas, el cambio de narrativa ya se empieza a intuir y es de esto es tonto a ojo con lo que puede hacer y ahí es donde se pone de verdad interesante.

Un abrazo de león 🦁

Avatar de Jorge Barriobero

Totalmente de acuerdo. Muchos de los detractores de estas tecnologías hablan desde una superioridad moral estomagante. Y en el otro lado del eje igual. Los fanes superficiales y los haters de la ia son todos los nuevos cuñados. Como para todo argumento hay un paper que lo soporte...

Avatar de Johan Paz

Aunque, a base de acumulación, los LLMs contengan una sombra del mundo, por construcción, es necesariamente del mundo que hemos narrado, del que hemos hablado, sobre el que hemos reflexionado. Será la sombra de nuestro espejismo del mundo. Solo cuando las redes neurales se entrenen con sus propio ojos tendrán su propio modelo del mundo.

Avatar de Nacho

Para mí, que soy informático pero no trabajo en el entorno de la IA, me surgen dos dudas de cara a futuro que me gustaría que tratarais (lo mismo están resueltas):

1. Si la IA aprende de nosotros y nosotros dejamos de crear, ¿de donde aprenderá después? Un ejemplo es la web donde cada vez hay más contenido 100% IA.

2. La IA es una caja negra, no se puede a día de hoy asegurar qué va a razonar para poder auditar un proceso y decir que es 100% fiable. ¿Llegará el día en que sí se pueda asegurar ese 100%? Entiendo que a día de hoy, viendo Claude, parece que lo solucionan con pruebas posteriores pero no todo se puede probar.

Gracias por este blog.

Avatar de Opiniones no solicitadas

Define demasiado listo por favor.