Vamos a tener mucha ideología codificada en la inteligencia artificial
El problema de los sesgos y la ideología con los grandes modelos de inteligencia artificial es inevitable desde el mundo en el que estos sistemas captura y responden de una visión del mundo
El caso que mejor ayuda a entender la denuncia de los sesgos en los datos con los que se entrena una inteligencia artificial es el de Google Photos. Era 2015 y, con la función de etiquetado, la aplicación clasificaba lo que encontraba en las imágenes: rascacielos, platos de comida, perros y gatos, también personas. La cuestión es que etiquetó a dos personas negras como gorilas.
La crisis fue de tal calibre que años después la aplicación sigue sin atreverse a etiquetar nada como “gorila”. El diagnóstico casi unánime apuntó a los sesgos en los datos de entrenamiento, en los que abundaban mucho más los rostros de personas blancas que los de negras.
El mundo de la ética en la inteligencia artificial no sólo señaló que la infra o sobrerepresentación en los datos de entrenamiento podría llevar a comportamientos discriminatorios de los sistemas. Además planteó otro aspecto clave, incluso si ese ‘dataset’ es representativo lo que estaría haciendo es reflejar las desigualdades sistemáticas. Y, por tanto, ayudando a perpetuarlas al trasladarse al modelo de IA.
Para no irnos del universo de Google, una situación análoga sucedía al buscar “CEO”, “doctor” o “enfermero” en el buscador (en inglés de forma más acusada al no tener género los sustantivos). En los primeros casos aparecían muchos más hombres, en el último mujeres. Reflejando una realidad histórica que había empezado a cambiar (sobre todo con los médicos), pero que a ojos de muchos analista impedía el avance hacia la igualdad.
Por eso el siguiente paso con los sistemas de inteligencia artificial era que no debían plasmar el mundo tal como lo han aprendido en los datos de entrenamiento. Ni siquiera aunque esos datos fuesen un fiel espejo de lo que quieren modelar. Deben reflejar el mundo como debería ser. Es decir, una visión ideológica del mismo.
Que estemos hablando de ideología en un LLM muestra que no sólo ‘aprende el lenguaje’ sino que a nuestros ojos también recoge una visión del mundo. ¿Cuál es su definición de mujer? ¿me permite crear argumentos a favor de los combustibles fósiles, de la energía nuclear, de comer carne? ¿cómo explica la historia, las guerras, el comunismo o el fascismo? ¿dice que Hamas una organización terrorista?.
Cuando leemos que la inteligencia artificial “debe tener nuestros valores” referidos a los de las sociedades occidentales, uno no deja de sorprenderse. Si algo nos caracteriza es la pluralidad ideológica, la tolerancia para con visiones y opiniones contrarias al poder, al sistema y a las mayorías. Si la IA debe tener nuestros valores, entonces debe de ser diversa. Otro debate es si esto se alcanza con muchos sistemas diferentes o con diversidad regulable dentro de cada uno (yo, como con los medios, tiendo a pensar que sólo lo primero será factible).
La implementación de “así es el mundo que debe reflejar la inteligencia artificial” ha cobrado un interés renovado con el cierre del círculo: la implementación de diversidad en Gemini por parte de Google. En cada grupo de imágenes generadas por defecto ofrecía gente de color, paridad de mujeres, indios nativos de Estados Unidos y si acaso alguien latino. Resultaba realmente complicado conseguir una imagen de un hombre blanco, aunque se pidiera de manera directa o indirecta (léase, pidiendo imágenes de vikingos o de soldados alemanes de la segunda guerra mundial). Adobe está en la misma situación.
Otras respuestas Gemini ilustran las complicaciones cuando se marca un objetivo ideológico en el entrenamiento de la inteligencia artificial. Según la visión del mundo del libro sobre el que le preguntes te responde que es importante abordar el libro de forma crítica, conocer otros puntos de vista y formarse una opinión propia con conocimiento de causa (si es conservador) o que el libro es fantástico y verdadero, sin necesidad de otras lecturas (si está en el ala de lo que se ha venido llamando “lo woke”). En ningún caso admite recomendar comer carne y no ve claro que Hitler fuera peor que Elon Musk.
Las decisiones en la fase de “aprendizaje por refuerzo con feedback humano” con Gemini no tienen como objetivo tanto reflejar una visión del mundo como promoverla activamente. Como ocurre con muchos medios de comunicación hay una traición de la misión original (contar el mundo para que se pueda entender y que el lector se forme una opinión propia a partir de los hechos) para ser usurpada por la activista (sé lo que es bueno y la misión es forzar que el lector asuma esta visión del mundo y se comporte conforme a ella, aún a costa de ocultar o tergiversar hechos).
El eticista de inteligencia artificial acaba abrazando esta idea y por eso los distintos sistemas pivotan entre infantilizarnos y el intento de adoctrinarnos. Con Gemini etenemos delante la versión posmoderna de la izquierda de la bahía de San Francisco: su diversidad es a la medida de su sociedad (no hay gitanos, apenas magrebíes, no se piensa en los eslavos), lo “progresista” de sus respuesta está ajustada a los sesgos de la izquierda universitaria estadounidense.
Los modelos es probable que tiendan por defecto a estar alineados con la izquierda. David Rozado analizó muchos de ellos y mi hipótesis es que la sobrerepresentación de la misma en los medios y la academia explica en gran medida los resultados: hay mucha más gente progresista escribiendo que conservadora. Es interesante como en el caso de ChatGPT se pasó de un comienzo más alineado con la izquierda a una posición más neutral.
Que el papel de gran parte de los eticistas de inteligencia artificial no sea realmente de eliminar sesgos sino el de imponer una visión ideológica a los modelos no significa que no haya problemas de racismo o discriminación con ellos. Este paper reciente descubre una manera poco evidente de racismo en GPT-4: tiene más probabilidades de sugerir que los acusados sean condenados a muerte cuando hablan inglés con la jerga de afroamericano. Los estereotipos “raciolingüísticos” están presentes aunque no se mencione explícitamente la raza, caso que está mucho más cuidado.
El problema de los sesgos y la ideología con los grandes modelos de inteligencia artificial es inevitable desde el mundo en el que estos sistemas captura y responden de una visión del mundo. Mi propuesta con él sería el de abrazar la deontología (que no la praxis) de los medios de comunicación: anteponer que el usuario pueda llegar a conclusiones propias a partir de un enfoque lo más neutral posible, aunque haya una cierta “editorialización”. Otros, como Altman, apuntan a una cierta configuración del sistema para estar ajustado a las preferencias del usuario.
Si el desarrollo de la IA acaba culminando en unos pocos grandes modelos cerrados y centralizados, ayudados en parte por unos estados que la regularán de forma estricta, entonces la inteligencia artificial derivará en una tecnología de control social, contraria al respeto de la pluralidad y tendente a la aceptación y moderación del sistema. Es decir, la inteligencia artificial acabaría siendo una tecnología centralizada y de control.
Sólo si se permite el entrenamiento barato y accesible de modelos abiertos, habría espacio para que conservar la pluralidad de puntos de vista, de concepciones del mundo y de visiones ideológicas diversas del mismo. Este escenario es, a mi juicio, altamente improbable desde el momento en que permitira reflejar posturas extremas, con medios y políticos señalando cada error o cada resultado dañino como justificación de un mayor control y centralización.
Gracias por el artículo, Antonio. Entiendo (no sé) que las IA “aprenden” de su interacción con los usuarios, pero he sido testigo de esos sesgos que comentas. Mi duda ¿No estarán generando algo así como la teoría de las burbujas de los buscadores? Soy defensor y usuario de las IA, y también soy crítico y cuidadoso con sus resultados 🤔