Pánico moral con la inteligencia artificial y que la mayoría de los empleos sean cosas del pasado
También: o3 es genial y errático a la vez; la Unión Europea recula con la lesgilación de la inteligencia artificial
Hoy tocamos varios temas unidos por un nexo común.
Pánico moral con la inteligencia artificial y que la mayoría de los empleos sean cosas del pasado
Derek Thompson en The Atlantic, señala una tendencia preocupante: la tasa de desempleo de los recién licenciados universitarios estadounidenses es inusualmente alta.
Otro dato: las 15 principales empresas tecnológicas de IA en EE.UU. habían estado contratando frenéticamente ingenieros software a un ritmo de hasta 3.000 al mes, un total de 500.000 entre 2011 y 2024. Ahora su tasa neta de contratación mensual se ha reducido a cero.
Una teoría prominente, respaldada por economistas como David Deming de Harvard, es que las empresas están contratando menos graduados para trabajos de cuello blanco, y utilizando más IA. Porque lo que hace bien la inteligencia artificial son tareas que típicamente hubiera resuelto un perfil junior recién salido de la universidad.
El debate es si estamos ante un pánico moral con la IA y el empleo, atribuyéndolo unos efectos que no ha provocado o al menos no en solitario. O ante una tendencia emergente que cumple las peores profecías: este cambio tecnológico es diferente, sus efectos en el empleo serán vertiginosos y no dará tiempo a la creación de alternativas al mismo ritmo.
A favor de lo segundo tenemos los despidos en Microsoft. Echa a 6000 empleados, con muchos ingenieros software entre ellos. Eso tras las declaraciones de Nadella de que con IA ya se genera entre el 20% y el 30% del código en la compañía y tras unos resultados financieros fantásticos.
En el frente discursivo tenemos las empresas AI First que presumen de no contratar, o al menos no hacerlo hasta haber intentado cubrir la necesidad con inteligencia artificial. A ellas se acaba de sumar el fondo soberano noruego. O podemos recordar el caso de Novo Nordisk, que pasó de tener un equipo de 50 personas redactando informes clínicos a sólo tres personas.
Pero, por otro lado, la gran subida de productividad que justificaría un impacto fuerte en el empleo no la estamos consiguiendo medir. Al menos de forma agregada. Las empresas que presumen de contratar menos es posible que se estén precipitando (véase Klarna) y estemos asistiendo a decisiones de gestión pobres mezcladas con mimetismo.
¿Está avanzando la inteligencia artificial para que esta casuística singular de la automatización de empleos de cuello blanco esté más cerca de ser posible? Vamos con el modelo ‘estado del arte’.
o3 es el mejor modelo que podemos utilizar y a la vez un desastre que alucina todavía más
En monos estocásticos hemos analizado el lanzamiento del muy esperado o3 de OpenAI, tanto en el podcast como en la lista de correo.
En mi uso he seguido sorprendiéndome del muy alto nivel en algunos casos (véase “Mi pequeño amigo ensayista que cuesta 200 dólares al mes y hace lo que yo”) y, al mismo tiempo, de sus alucinaciones, errores e inventivas.
Del análisis en monos destacaría dos cosas.
Una es que empeora el rendimiento de o1, que es capaz de evitar detalles incorrectos en más ocasiones. o3 se moja demasiado, acierta más pero inventa más también.
La otra es que, como descubrió Anthropic en su Claude, o3 en sus cadenas de razonamiento inventa acciones que nunca llevó a cabo y que luego justifica de forma elaborada cuando se le confronta.
Si este año es el de los agentes de IA, sigo pensando que tienen los pies de barro. La nueva línea de modelos razonadores ha conseguido avances muy buenos en algunos temas y tareas, pero desde luego no ha arreglado el pecado original de la falta de fiabilidad.
Y así se encuentra uno con esta tecnología, en una montaña rusa. Un día asiste a resultados espectaculares, prometedores, nunca vistos; al siguiente, constata que problemas de base que se llevan arrastrando no se consiguen resolver.
La Unión Europea protagoniza una reculada histórica con la inteligencia artificial
Por primera vez, la Comisión Europea ha reconocido públicamente que la Ley de Inteligencia Artificial no empezará a aplicarse antes de agosto de 2026. El calendario escalonado de la Ley de IA es más ficción que realidad. Lo explica Luca Bertuzzi y cita la información oficial del organismo.
En Politico y FT leemos que Henna Virkkunen, responsable de política digital de la UE, anunció suavizarán normas y requisitos para “apoyar la competitividad europea en inteligencia artificial”.
Kilian Gross, jefe de la unidad de IA de la Comisión Europea, dice que tienen previsto facilitar el cumplimiento de la Ley de IA y, si la simplificación resulta insuficiente tras la revisión, introducir cambios específicos; antes de la fecha de entrada en vigor del 2 de agosto se publicará un código de prácticas voluntario para modelos de IA de uso general como ChatGPT.
Es más, Virkkunen anunció que la UE retirará una disposición que permitía a los ciudadanos demandar a empresas de IA por daños causados por sus sistemas y que exigía informes y divulgación exhaustivos. Defendió la necesidad de ajustar la normativa para hacer que la UE sea más competitiva e independiente. “Si queremos fomentar la inversión en IA, debemos asegurarnos de tener un entorno más ágil y sencillo del que ofrece actualmente la Unión Europea”, afirmó.
Cerrando el círculo de esta edición de Error500, la UE diseñó la AI Act como resultado de un pánico moral con la inteligencia artificial. Los políticos explicaron por qué una ley ya y tan estricta: porque anticiparon, adivinaron, que algunos los cambios que traerá la IA serán irreversibles. Una especie de principio de precaución más alimentado por mitos a lo Terminator que por la realidad tecnológica de lo que teníamos delante.
El dilema de Europa ya lo relatamos. Apostaron por una posición estatista o, en su mejor versión, naive: que podemos tener innovación tecnológica sin riesgos y sin ninguna externalidad negativa porque los técnicos y políticos pueden diseñar las leyes adecuadas. Pronto se ha visto que la carrera de la IA es entre China y EE.UU., que aceleran y mucho por ganarla.
Encuesta Error500
Esta semana hemos vuelto a un post con varios temas. Aquí os quería consultar: ¿Preferís recibir artículos más extensos con varios temas? ¿O piezas más breves y frecuentes, una por tema? ¡Gracias por votar, me ayudará mucho!
Breves
Alex Serrano con José Viruete sobre los videojuegos de marcianitos: píxeles hostiles, puntería dudosa y la gran invasión digital.
“El caso del filósofo artificial”. Santiago Sánchez-Migallón.
Carmen de Ramón en Sinc, “Los adolescentes con problemas de salud mental pasan más tiempo en las redes sociales”.
Microsoft dice que las nuevas cuentas serán “sin contraseña por defecto”, y pedirá a las personas que utilicen métodos como las passkeys.
Imágenes: Antonio Ortiz con Freepik Pikaso y ChatGPT.
La IA es una tecnología emocionante, que poco a poco va tomando su lugar. Por ejemplo, es una excelente conversadora cuando no importa mucho la fiabilidad. También es genial para procesar datos, cambiar formatos, resumir textos y extraer ideas. Es decir, a pesar de sus problemas, está tomando su posición.
Ahora bien, cojea enormemente en otros puntos. De hecho, me temo que, por su arquitectura, los LLM seguirán cometiendo su pecado original durante mucho tiempo. De hecho, tengo la sensación de que se tiene poco control sobre ellos. Basta una actualización para que un modelo nuevo sea menos fiable que el anterior o cambie su "personalidad" radicalmente.
Lo de la UE ya estaba anunciado por parte de Henna Virkkunen hace unos meses https://www.youtube.com/watch?v=_p54KTpqsyo&ab_channel=ARTE.tvDocumentales
Gracias por los estupendos artículos!