La Unión Europea regulando la inteligencia artificial ha podido caer en un pánico moral
Los mismos políticos explican por qué una ley ya y tan estricta: porque anticipan, adivinan, que algunos los cambios que traerá la IA serán irreversibles
Somos incapaces de adivinar el futuro. Esa torpeza aplica, especialmente, a anticipar los cambios que producirá la adopción de una tecnología. Quizás no a los inmediatos y obvios, pero sí a las transformaciones de segunda derivada.
Dentro de nuestro mundo tecnológico, resulta muy llamativo que los creadores, programadores y científicos no demuestran mejores dotes adivinatorias que el resto del mundo. La web está llena de artículo de predicciones fallidas, ridículos espantosos que se podrían haber evitado de una manera muy sencilla: reconociendo que no somos buenos anticipando el futuro.
En algunas conferencias he puesto de ejemplo a los creadores de TCP/IP (el conjunto de protocolos sobre el que se articula internet). ¿Hubieran sido capaces de anticipar el éxito de la creadora Pinkydoll en Tiktok y su “ice cream so good” si les forzáramos a explicar el impacto en el ecosistema de medios, contenidos, entretenimiento e información?.
La respuesta obvia es que no, para que sucediera este fenómeno han sido necesarios muchos cambios en los hábitos y diversas innovaciones extra: la cultura de videojuegos y la filia generacional con los NPCs, los micropagos, el acortamiento del tiempo de atención de los usuarios, una cierta apertura a pagar por participar de la intimidad de una celebridad digital, la investigación de las plataformas de creadores de algoritmos que maximizan la dopamina… no, esto no lo hubieran adivinado.
Y no es sólo el caso concreto, específico e inesperado, son las tendencias que han ido apareciendo década tras década las que se antojan inexcrutables a priori.
Esto, sostengo, tiene mucho que ver con la AI Act. La nueva ley de inteligencia artificial europea enfila su fase final. Lo que se ha anunciado son las líneas generales del acuerdo político, con notas de prensa y principios que regirán la norma, pero no tenemos el texto final en cuyos detalles hay muchos aspectos por decidir todavía. En la web del parlamento europeo tenemos la nota de prensa (en inglés) y en la del consejo europeo otro comunicado en español. Podemos sumar las declaraciones de los políticos implicados en el desarrollo y parte de los borradores que sí hemos podido leer hasta ahora, aunque siempre con precaución porque las negociaciones han durado hasta el último minuto.
Aunque habrá sistemas prohibidos, lo relevante está en los considerados de alto riesgo (los que puedan “impactar en la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho”) y en cómo se trata a la inteligencia artificial “de propósito general”. El gran miedo de la industria y a la vez la mayor petición de los más temerosos de la IA era la instauración de auditorías previas a pasos a producción, algo que parece salvado… aunque es una carta que se guarda la Unión Europea para casos especiales.
Si sumamos la exigencia de transparencia sobre los datos de entrenamiento y el cumplimiento de legislación de propiedad intelectual (no tengo muy claro en todo caso si usar contenidos con copyright para entrenar una IA la vulnera), tenemos que ahora mismo ninguno de los “modelos grandes de lenguaje” cumple la futura normativa europea.
Si añadimos el requisito de explicabilidad de las decisiones para las IAs de “alto riesgo”, los sistemas más avanzados de deep learning tampoco la cumplirán. De hecho hasta cómo definen IA va a dificultar la implantación tecnológica porque en los borradores era una concepción muy amplia. Un apunte más, dicen que el texto final será menos exigente con los modelos “open source”, a los que las auditorías y las amenazas de enormes multas matarían en nuestro continente. Veremos, aunque en mi opinión es la mejor noticia para el ecosistema europeo.
Entro algo más en detalle al final del último episodio de monos estocásticos
La Unión Europea presume de ser la primera gran institución en regular la inteligencia artificial en un esfuerzo en el que amplios sectores (la prensa, intelectuales, lobbies pro derechos digitales, también académicos de todo tipo incluyendo científicos de IA) han presionado hacia ello. Si alguno vive en la burbuja de Twitter y el sector tecnológico se ha perdido que la gente con la que hablan los políticos y los medios que leen les llevan diciendo meses que con una ley así se han quedado cortos. A ojos de los impulsores de la nueva norma, han concedido un razonable punto intermedio.
En el pequeño mundillo de la IA en España la recepción ha sido a la contra. En este tema de Javier Pastor en Xataka tenemos testimonios de Andrés Torrubia y de Joaquín Cuenca. Reflejan bien el sentir de gran parte del mundillo emprendedor digital: la Unión Europea se ha convertido en un gran regulador a la vez que un limitador en que podamos ser una potencia tecnológica. Con esta legislación estamos regalando el liderazgo de la tecnología clave de la década y quizás del siglo a Estados Unidos y China.
Nota al margen merece la consideración de que hace meses Torrubia y muchos otros estaban firmando una carta pidiendo la congelación de desarrollos de nuevos modelos. De hecho en ella solicitan que haya organismos regulatorios que apliquen auditorías hasta asegurar la seguridad más allá de cualquier duda, por el peligro que pudieran entrañar. Lo que ha hecho la Unión Europea ha sido comprar el argumentario de los temerosos de la IA.
Las declaraciones de los políticos van por otro lado, dicen haber conciliado regulación e innovación. Leyendo los borradores de la nueva ley de inteligencia artificial sin embargo uno encuentra que el apoyo a nuevas empresas es facilitar “sandbox” con organismos del estado que analicen y supervisen. Al final la AI Act pinta a que es mucho más amigable para las grandes tecnológicas que pueden gastar en largos períodos de prueba y en equipo legal que para entrar desde un proyecto pequeño. Se crea una fuerte barrera de entrada. Si eres un emprendedor, preocúpate; si eres Telefónica o Google, enhorabuena.
La pregunta es, ¿tienen razón los políticos impulsores de la nueva ley en que hay que legislar ya y de esta manera tan dura? Leyendo las respuestas de Carme Artigas - secretaria de Estado que ha liderado en gran medida el proyecto - en esta entrevista en Invertia uno no puede sino que dudarlo.
Lo razonable (o más bien lo que se ha hecho siempre) es legislar a posteriori: permitir el desarrollo tecnológico y la innovación dentro de la regulación anterior (que no es lo mismo que sin ley o haciendo cualquier cosa sin límites). Y, una vez entendidos sus efectos, atacar los negativos y potenciar los beneficiosos.
¿Por qué no se ha actuado así con la inteligencia artificial? Los mismos políticos lo explican: porque anticipan, adivinan, que algunos los cambios que traerá serán irreversibles. Es decir, no habrá espacio para nueva regulación a posteriori porque la IA tiene el potencial de acabar con el sistema, la civilización y la democracia.
Esta posición se antoja mucho más el producto de un pánico moral, de un miedo exacerbado hijo de que el meme de Terminator es de mucho más éxito que el de “un modelo de lenguaje con el que chatear que te mejora la productividad”. También de posiciones de gran parte de los llamados “eticistas de la IA” cuya postura en ocasiones es una llamada al inmovilismo: como el cambio tecnológico tendrá algunos efectos negativos (todos los de la historia lo han tenido), mejor evitarlo o reducirlo a su mínima expresión renunciando a cualquier impacto positivo.
Hay muchos aspectos de la IA que sí podemos adivinar, los de primera derivada: un generador de imágenes se usará para generar imágenes. Y uno de textos, para escribir. Hay aspectos en los que los efectos son preocupantes, más en lo íntimo que en lo público en mi opinión. Y hay sistemas que están bien prohibidos. Pero - y lo afirmo con reservas, yo tampoco soy capaz de predecir el futuro - creo que tenemos delante una posición de la Unión Europea que refleja una sociedad timorata, aterrada ante el cambio, que prefiere el “que inventen ellos” y resuelta a si posición de viejo continente.
Hay un libro muy interesante que profundiza en lo que comentas de que los humanos no somos buenos anticipando el futuro: Superpronosticadores (Philip E. Tetlock).
Creo que decir que parte de "[...] el producto de un pánico moral, de un miedo exacerbado [...]", podría ser un poco simplista.
La posibilidad de que cualquiera (con cualquier intención) tenga acceso a herramientas con capacidad potencial de romper varios sistemas (no sólo electrónicos sino en lo social), generando cambios a mayor velocidad que cualquier otra tecnología en el pasado, tiene un riesgo bastante elevado.
Completamente de acuerdo que la UE legislando (y de esta manera) deja al resto de potencias una ventaja enorme (una vez más) y no tengo muy claro cuál es la posición/acción más correcta en este asunto. Pero muchas veces parece que "lo que traerá la IA será mayoritariamente bueno y se pueden poner puertas más tarde". No sé si en este caso se podrá meter el genio de nuevo en la lámpara si algo, por pequeño que sea, va mal.
Como dice la entradilla: "... porque anticipan, adivinan, que algunos los cambios que traerá la IA serán irreversibles". Esto, aún en tono condescendiente, es una obviedad. Todos los cambios serán irreversibles, como lo fue todo cambio tecnológico previo (coche, tv, internet, RRSS). El quid de la cuestión es plantearse cuál será el coste de dejarlo desarrollar en plena libertad.