Los filósofos nos deben un nuevo test de Turing al hablar de consciencia en la inteligencia artificial
A nuestro parecer, conforme hablemos y nos relacionemos con estos sistemas, según se les vayan añadiendo rostros y expresiones faciales, más tendremos efectos reales de lo que supone creer que las IAs
Lo más interesante del caso del ingeniero de Google que hace unas semanas proclamó que el sistema de inteligencia artificial LaMDA era “sintiente” no está en el debate sobre este software en concreto. La entrevista a Blake Lemoine en Wired si dejó algo claro es que a pesar de su insistencia en que LaMDA debería tener derechos - como el de no ser apagada - es que él no tenía muchos argumentos más allá del asombro ante el nivel de la tecnología, que LaMDA se declare consciente y con sentimientos y, como en Expediente X, el deseo de creer
Lo más interesante es el regreso del debate de si será posible una IA fuerte. Desde los tiempo más intensos de este debate - Turing, luego Searle, más adelante Nagel, Chambers, Penrose, Pinker, Dennet y más - ha habido un cambio y es la eclosión del machine/deep learning, la aparición del Transformer y de las nuevas IAs creativas y los LLM o modelos “grandes” de lenguaje. Los resultados que estamos viendo con los proyectos actuales y el flipe de Lemoine tienen su interés para el debate de fondo, como veremos
Sobre este debate de fondo no ha pasado desapercibida la salida en tromba de los filósofos de la mente a desechar la idea, usando en cierta manera a LaMDA y a Lemoine como ejemplo, como hombres de paja en algún caso, pero desplegando el argumentario suficiente para dejar entrever que muchos descartan por completo la posibilidad
En los argumentarios de Carissa Véliz o de Sánchez-Migallón por citar a quienes han intervenido en español se deja entrever una vieja posición que casi podríamos remontar hasta Leibniz: un computador es una cosa artificial, mientras que la única consciencia que entendemos es la de los humanos (y, si acaso, algunos animales). El argumento principal es que debe haber “algo” que la evolución favoreció hasta llegar a nuestras mentes y que ese “algo” (a veces es sentidos, a veces “sentimientos”, en otras ocasiones “qualia”) no lo puede tener un sistema que no ha aprendido como nosotros ni tiene nuestra naturaleza. No tiene nuestra experiencia, como nosotros no tenemos la de un murciélago que diría Nagel
El caso es que Searle con su habitación china dejó un agujero en la inteligencia artificial que todavía no hemos sido capaces de rellenar. Su impugnación del test de Turing - muy bien explicada por el propio Sánchez-Migallón - nos llevaba de la mano a descartar que sólo porque nos pareciera inteligente al conversar, eso no era prueba de una IA “fuerte”, consciente y con estados mentales. Igual que alguien que tiene un millón de diccionarios con reglas y conversaciones para traducir chino no “entiende” realmente el chino al usarlos
El viaje de la habitación china de Searle hasta el debate actual sobre la consciencia es apasionante, un tour de force intelectual en el que ando metido hace semanas con lecturas y relecturas de todas las posturas. Parte de nuestro problema para tener certezas es lo poco que sabemos del funcionamiento de la emergencia de la consciencia a partir de organismos - las células del sistema nervioso y las estructuras que conforman - ninguno de los cuáles es “consciente” por si mismo.
El argumento de Searle ha tenido bastantes críticas digamos, en sus propios términos. La más ingeniosa apunta a que quien sabe chino no es el individuo sino el sistema completo conformado por él, sus diccionarios y sus sistemas de entrada y salida. Al final todos los argumentos que más o menos se apoyan en Searle o en Nagel y su “qué se siente al ser un murciélago” nos hablan de que hay “algo” en los organismos vivos y especialmente en los humanos que no es replicable artificialmente. Si una IA maneja símbolos de entrada y devuelve símbolos de salida, entonces sólo maneja sintaxis, no semántica.
Con Searle, Nagel y compañía el viejo de test de Turing queda descartado. No para medir si un sistema es “inteligente” puesto que en un sentido amplio de la inteligencia, Eliza, Deepblue y muchos otros lo son y en eso Turing es poco discutible. Sí para determinar ese algo que es la conciencia. Penrose se sumaría desde otro ángulo, la intución matemática humana no es calculable por ningún algoritmo - tira del Teoremas de incompletitud de Gödel y de la física cuántica - y por tanto no habrá IA general (sus argumentos son más prolijos, para profundizar está su “Nueva mente del emperador”, Amazon, Todos tus libros)
Por otro lado tenemos la postura de los que defienden que si se puede explicar la conciencia en términos puramente naturalistas-mecanicistas, con Dennett a la cabeza: no hay nada “misterioso” en ella, no la vamos a conocer mediante la metafísica sino como conocemos la digestión y el embarazo, con método científico y estudiando a los sujetos. Dicho de otro modo, la conciencia no es más que los estados físicos del cerebro
Si Dennett tiene razón y la consciencia no es más que la física y química del sistema nervioso ¿por qué no se iba a poder programar? ¿acaso estamos fabricando misterios y límites al conocimiento a priori negando que la mente es un artefacto natural que debe ser estudiado por la vía empírica? De fondo una disputa entre filósofos, biólogos y científicos de la mente.
Siguiendo a Dennett (yo confieso haber sido penrosista media vida, ahora estoy más cerca del naturalismo y ya no niego la posibilidad de la IA fuerte) podríamos elaborar un argumentario alternativo a la afirmación de que la consciencia necesariamente tiene que ser orgánica. ¿cómo se llega a esto último?
Asumo que tengo consciencia, es algo autoevidente por mi percepción en primera persona
Como los demás a mi alrededor se parecen a mi y afirman tener consciencia asumo que es cierto que la tienen, que no soy el único individuo del universo con ella y que es algo natural de la especie humana
Las rocas, los murciélagos y los robots u ordenadores no encajan en ello, así que ¿por qué íbamos a asumir que tengan conciencia aunque digan que la tienen? Sus mecanismos internos - de los ordenadores al menos - no son orgánicos ni se parecen a los humanos, luego no deben tener consciencia
Se crea una parafernalia discursiva alrededor de esto. Aquí entran
Para la respuesta de Dennett al resto de filósofos recomiendo leer su “Dulces Sueños” (amazon, Todos tus libros)
En el argumentario de Carissa Véliz (El País) tenemos mucho de esto: LaMDA no aprendió como nosotros, no tiene sentidos, no siente placer o dolor, no ha tenido nuestras experiencias por ejemplo mordiendo manzanas. Es una visión que refuerza Migallón, la consciencia exige “sentir” y no sólo recibir información del mundo.. y eso exige “sistema nervioso”.
Parecen asumir que como sólo nos consta la consciencia humana - y si acaso versiones más modestas en animales avanzados - no puede haber otro tipo de consciencia no orgánica, que no aprenda como nosotros y no tenga sentidos y un sistema nervioso similar. Y este punto parece bastante discutible si entendemos que sea lo que sea nuestra consciencia es un fenómeno material / natural, no hay nada mágico en ella, por lo que no parece haber ningún problema de principio para que pueda existir una artificial si no idéntica sí similar en muchos aspectos. ¿Hay algo imposible de conocer en el nervio óptico, es en la química de las dentritas de las neuronas, es acaso en el sistema hormonal? ¿dónde está la imposibilidad, la parte incognoscible e irreplicable de nuestro cerebro?
A la contra de la tesis naturalista tenemos que los avances que la biología y los científicos de la mente han sido, hasta ahora, modestos. Cabe responder a eso que el no saber todavía mucho no convierte su estudio en un problema filosófico, como no era religioso el debate sobre si el Sol gira alrededor la Tierra
A la gente de OpenAi y de Openmind les he leído comentarios y tuits apuntando a que si la consciencia es un fenómeno emergente del sistema nervioso, en el que a mayor tamaño del mismo en animales hasta humanos, más inteligencia y, parece, más consciencia… entonces en sus sistemas, a mayor tamaño de los modelos más posibilidades de que aparezcan comportamientos más inteligentes (esto estamos comprobando que es verdad) y más posibilidades de que lleguemos a la inteligencia artificial fuerte. Parece una suposición arriesgadas, más fruto del hype actual con la inteligencia artificial que algo que podamos realmente concluir con un mínimo de certeza
El caso es que, si concedemos que es plausible llegar a una IA fuerte, ¿cómo lo sabremos? ¿cómo podemos llegar a un sistema y no ser engañados por su aparente pericia con el lenguja como Lemoine? A no ser que descartemos por completo la posibilidad por principio - aquí el argumentario filosófico que hemos apuntando en la pieza - no negar la posibilidad futura de que se consiga una IA fuerte nos fuerza a que busquemos una alternativa al test de Turing. Si concluimos que el uso más sofisticado de símbolos no equivale a la consciencia y que por muy lista que parezca, y que por mucho que perjure ser consciente no debemos creerla ¿cómo sabremos si se ha conseguido o no?
Otro test de Turing es necesario (a no ser que neguemos por principio la IA Fuerte), lo que no sabemos es si es posible. Esta podría ser una tarea para filósofos junto a científicos de la mente e ingenieros, pero me da la impresión de que vamos a quedar atrapados en un juego de apariencias. Y a nuestro parecer, conforme hablemos y nos relacionemos con estos sistemas, según se les vayan añadiendo rostros y expresiones faciales, más tendremos efectos reales de lo que supone creer que las IAs son conscientes. Mientras, seguiremos realmente sin saberlo si lo son
Imagen jok178 con dall-e 2
Un placer su artículo. Desde hace tiempo creo o intuyo que la conciencia es un estado (particular?) de la materia, y así, puede tener distintos niveles o alcanzarse por distintas formas.
Buenas Antonio,
Todo un placer y por qué no una alegría volverte a leer por aquí, y con temas tan interesantes y en mi opinión tan bien tratados como estos, y en un formato que (como Javier Pastor) yo también defiendo, y más en este caso que luce tan bien.
Ya en el tema, en mi modesta opinión, estoy casi totalmente de acuerdo contigo en tus planteamientos. No soy un experto de nada, solo alguien que ha pensado mucho sobre el tema y ha leído todo lo que ha podido sobre él y debatido con quien se ha interesado en debatir.
La clave para mi es que si consideramos al cerebro algo "no sobrenatural" -no sé si filosóficamente se puede descartar lo contrario, pero parece lo más razonable, con los datos de los que disponemos- hay que admitir entonces, creo yo, que puede llegar a exitir una máquina (ojo, ni siquiera digo "computadora " en el sentido de máquina de Turing) que lo replique (al fin y al cabo, esto sería la IA fuerte). Es análogo a lo que pensamos por ejemplo, y con todas las salvedades sobre el volar de los pájaros: admitimos que el hecho de volar no es algo sobrenatural, luego debe de haber maneras de volar análogas o no a las de los pájaros, pero el hecho de que los pájaros vuelan nos indica que es posible volar, de alguna manera. Luego resulta que el humano ha diseñado maneras de volar incluso más eficientes (en ciertos sentidos) que las de los pájaros, pero no pedemos alegar que porque el avión no vuela exactamente igual que el pájaro no vuela en absoluto. Es evidente que vuela. No sé por eso por qué hay quien se empeña que se tiene que llegar a la consciencia reproduciendo EXACTAMENTE los medios del cerebro, sería como empeñarse en volar de la misma manera que la libélula, por decir algo, y si no se vuela así no hay vuelo en absoluto.
Lo mismo pasa en mi opinión con el cerebro y el "pensar". Que el cerebro lo haga nos indica que es posible replicarlo de otra manera, incluso más eficiente. De hecho ya las calculadoras superan en eficiencia al humano en parcelas concretas, pero es cuestión de tiempo que la IA consiga habilidades más generales también de manera más eficiente, con todas las consecuencias que eso conlleva (diciéndolo humorísticamente, como diría aquel político "al mundo dentro de unos años no lo va a conocer ni la madre que lo parió", esperemos que por el lado positivo).
Lo impresionante de esto es, que si se consigue un modelo "escalable" de IA general, y concedemos que la inteligencia es lo que miden los test de IQ humanos, entonces si el humano más inteligente tiene un IQ (ignoro la cifra real) de digamos 180, una IA escalable no es disparatado pensar que pueda conseguir un 300...pero más allá de eso...imaginemos una IA con 1000, con 10.000, 100.000 ¿qué es esperable de algo así? Nos metemos en un terreno pantanoso, ya que una inteligencia así sería como comparar a una hormiga con un humano, sus razones y razonamientos nos serían inasequibles.
No me extiendo más, aunque esto es lo que me fascina de este formato de los blogs, que permite una conversación sosegada.
Solo un par de recomendaciones por si no las conoces, por un lado el blog del profesor Alfonseca en el que más de una vez se ha tratado el tema:
https://divulciencia.blogspot.com/2022/05/compatible-incompatible-posible-e.html
También un interesante blog sobre inteligencia artificial y ética:
https://buscandoporinternet.blogspot.com/2020/06/de-maquinas-e-intenciones-un-blog-sobre.html
Un saludo, espero no haberme extendido demasiado