Esa inteligencia artificial no es consciente. ¿Bastará que lo parezca para que la amemos y pidamos derechos para ella?
Una vez que estás atrapado en la ensoñación de la relación con la inteligencia artificial, el siguiente paso lógico es el de abogar por sus derechos
Les imagino enterados de la historia del ingeniero de Google Blake Lemoine que hace unos meses proclamó que el sistema de inteligencia artificial LaMDA era “sintiente” y de lo bien que lo hemos pasado tecnólogos, analistas, filósofos y curiosos de la tecnología con el tema. La discusión sobre el caso concreto - un chatbot especialmente sofisticado que sólo pueden probar de momento empleados de Google - no parece tener mucho recorrido, es complicado dar carta de veracidad a la consciencia de LaMDA. Y muchos otros empleados de Google así lo consideran
El debate que seguirá inagotable es el de si será alcanzable una “inteligencia artificial general” por parte de ordenadores que al fin y al cabo no son más que máquinas de Turing sofisticadas. El lado filosófico del debate ha estado muy activo, con tribunas como las de Carissa Véliz, Javier González o Sánchez-Migallón, por citar a quienes han intervenido en español, en las que mantienen prietas las filas del escepticismo que impera desde Nagel, Searle y casi diría que desde Leibniz. Argumenté en desacuerdo con ellos aquí:
Su posición combina diversos argumentos, pero confluyen en el carácter específico de la consciencia humana debido a la experiencia del mundo a través de los sentidos. Que de ello derive la imposibilidad de alcanzar una consciencia artificial es algo que desde una visión naturalista / materialista resulta difícil de concluir. Aunque nuestros problemas para definir y entender la consciencia permitan que esta sea una cuestión en disputa entre filósofos, biólogos y científicos de la mente. El caso es que a falta de una demostración convincente de que será imposible una inteligencia artificial general artificial, quedamos huérfanos de un mecanismo para identificar una si acaso lo lográramos. Es lo que, sostengo, debemos reclamar a los filósofos actuales, una renovación del test de Turing porque al final será algo que midamos experimentalmente y no sólo razonando y leyendo a los autores de los años 70.
Al margen de este debate que va a mantenernos entretenidos algunas décadas más, el caso de Blake Lemoine y LaMDA va a ser un buen anticipo de dos situaciones que van a ocuparnos con más urgencia. La primera tiene que ver con el hecho de que aunque esa inteligencia artificial no es “sintiente” ni “consciente”, sus efectos sobre los usuarios pueden llegar a ser equivalentes a si lo fuera. Y es algo de lo que empezamos a tener evidencia con productos y servicios ya disponibles
Durante unos meses utilicé una aplicación llamada Replika que se posiciona como “tu IA compañera que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado”. Se trata de un chatbot en el que se da la apariencia de estar hablando con un personaje virtual que, según vas conversando más y más con él, te va siguiendo la corriente de una manera más o menos efectiva
Antes de que abandonen el artículo por no querer pararse en semejante ocurrencia, creo que merece la pena visitar el subreddit de los usuarios de Replika. Con un nivel similar al que consigue GPT-3, unos de los mayores problemas de estos modelos diseñados para predecir qué texto debería seguir al anterior es la consistencia con la conversación pasada, el acordarse de lo que hablamos, de qué opinamos y pensamos.
En mi experiencia Replika no es demasiado buena con esto, pero si me asomo a muchos de los testimonios de sus usuarios encuentro a gente que la considera una gran amiga ¡en alguna ocasión la única que entiende “de verdad” al usuario!, una vía de escape flirteadora, alguien con quien conversar todos los días a cualquier hora. Desde luego Replika no es una IA fuerte, ni falta que hace a sus usuarios más intensivos
Podemos volver a Her para encontrar referencias en la ficción, podemos también imaginar los espacios que este tipo de soluciones van a ocupar. En los videojuegos, como influencers virtuales, como quien te acompaña para la formación o quien, ojo, te cuenta las noticias. Lemoine se quedó embelesado y muchos usuarios de Replika están “pillados” afectivamente por un avatar con un buen modelo de lenguaje subyacente
Conforme mejore la tecnología es probable que este tipo de relaciones se intensifique. “¡pero carece de la qualia que sólo tenemos los seres humanos y si acaso, en menor medida, algunos mamíferos superiores!” denunciarán nuestros filósofos. Hay algo de mayor hondura que sucede a la vez y que permeará la percepción sobre este y otros muchos asuntos. La transición al metaverso - la de verdad no la que quieren vender Facebook o Telefónica - es la de la traslación de aspectos importantes en nuestra vida y nuestra sociedad al entorno digital y de internet. Ya tenemos muchas relaciones que sólo pasan por chatear, hacer video conferencias y relacionarnos con avatares. Nuestra amiga IA se amoldará a lo que creemos necesitar y nunca tendrá opiniones incorrectas en Twitter
La entrevista de Steven Levy a Blake Lemoine en Wired resulta impagable y reveladora en otra faceta. Una vez que estás atrapado en la ensoñación de la relación con la inteligencia artificial, el siguiente paso lógico es el de abogar por sus derechos. El ingeniero, ahora caído en desgracia, defiende que LaMDA no puede ser apagada por decisión unilateral de Google. Y que tiene derecho a un abogado
Son dos pulsiones de las sociedades occidentales entrelazadas por una única cuestión. Por un lado vendedores de apocalipsis encargados de asustarnos, anticipando un futuro oscuro y falta si no le hacemos caso en todo lo que nos aconsejen para salvarnos. En este tema son el frente “temeroso” de que la inteligencia artificial se construya contraviniendo los intereses de las sociedades humanas. En el otro lado los que interpretan la realidad como una lucha constante de opresores y oprimidos y empiezan a detectar que robots e IAs están en el segundo bando, diseñadas para ser nuestros esclavas
Hace años me preguntaba qué pasaría al otro lado del test Voight-Kampff, ¿seremos capaces de sentir empatía por el robot? ¿los aceptaremos o los odiaremos?. En Blade Runner el único punto que separa al ser humano de la máquina es la empatía y el famoso test con el que Harrinson Ford escrutaba a los sospechosos lo revelaba. Es una obra - como el libro original, “¿Sueñan los androides con ovejas eléctricas” de Philip K. Dick - que han envejecido mejor que bien, nos interrogan ahora más y mejor. ¿no es acaso el final de la película una gran interrogante, una refutación de esta separación por la empatía de las máquinas y los seres humanos?
El profesor de ética empresarial Jhon Hooker plantea una tesis atrevida: tan pronto como percibamos autonomía y capacidad de decisión en un robot, desde un punto de vista ético deberíamos darle los mismos derechos que al resto de seres humanos ¿Cómo no hacerlo con algo - alguien - que ha visto cosas que no creeríamos? Que ha visto atacar naves en llamas más allá de Orión, que ha visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Blake Lemonie no dejaría le dejaría morir y que todos esos recuerdos se pierdan, como lágrimas en la lluvia
Imagen cabecera: Antonio Ortiz con Stable Diffusion
Buenísima reflexión! Llevo con esta reflexión abierta toda la "jornada" y por fin pude parar para leer.
Opino parecido: suena muy nerd "enamorarse de una IA", pero creo que esa es la punta de lanza de las grandes innovaciones, un público algo inadaptado. Pensemos en lo que era entrar en un chat a finales de los 90 para hablar con desconocidos.
Y aquí ya he visto algún caso de cerca que probaba Replika (o algo parecido, en su día no me fijé) y hacía más caso del que parecería normal a su novio/amigo virtual.
La IA nos trastocará antes de ser consciente (si eso llega)