Sobre los límites de los LRM o modelos de lenguaje razonadores: el aprendizaje por refuerza los lleva a gran nivel en programación y matemáticas... ¿los llevará en cualquier tarea del conocimiento?
Antonio los modelos de lenguaje, incluso con aprendizaje por refuerzo, están lejos de entender o crear. Estoy muy de acuerdo con la idea de que automatizar tareas no equivale a replicar el conocimiento humano. El reto no es técnico, es entender qué significa realmente comprender.
No creo que con las técnicas actuales, LLM y LRM, se pueda hablar de comprender, el camino pasa por las aproximaciones neurosimbólicas: mezclarlo con semántica, knowledge graphs y cosas así.
La parte de crear, ya no estoy tan seguro. Aunque sea probabilístico, si genera una combinación que antes no existía ¿se puede considerar que crea? Claro, que le faltaría uan parte que aparecía ya en las primeras definiciones de la IA: la "aleatorización consciente"
Antonio los modelos de lenguaje, incluso con aprendizaje por refuerzo, están lejos de entender o crear. Estoy muy de acuerdo con la idea de que automatizar tareas no equivale a replicar el conocimiento humano. El reto no es técnico, es entender qué significa realmente comprender.
No creo que con las técnicas actuales, LLM y LRM, se pueda hablar de comprender, el camino pasa por las aproximaciones neurosimbólicas: mezclarlo con semántica, knowledge graphs y cosas así.
La parte de crear, ya no estoy tan seguro. Aunque sea probabilístico, si genera una combinación que antes no existía ¿se puede considerar que crea? Claro, que le faltaría uan parte que aparecía ya en las primeras definiciones de la IA: la "aleatorización consciente"