Inteligencia artificial y la lógica del spammer
Las plataformas descubren que la apertura radical que las hizo crecer es ahora su mayor vulnerabilidad frente a una avalancha de slop producido a coste cero. Se vienen cambios
En enero de 2004, Bill Gates subió al escenario del Foro Económico Mundial de Davos y pronunció una de esas predicciones que envejecen mal: “En dos años, el spam estará resuelto”.
Su receta para ello resultó ser un equivalente digital del sello postal, un micropago que cada remitente debería abonar. La idea era consecuente desde el punto de vista económico: el spam funciona porque el coste marginal de enviar un correo adicional es prácticamente cero, así que basta con que un destinatario entre millones pique para ser rentable.
La lucha contra el spam fue por otros derroteros, como todos sabemos. No hubo coste marginal añadido al email, pero lo que sí ocurrió es que los filtros mejoraron lo suficiente para poder convivir con el problema (con una intervención estelar al aparecer Gmail, todo sea dicho).
El verdadero slop no es sólo un problema estético sino también un asunto económico
Conviene recordar esta historia porque la lógica económica del spammer: coste marginal cercano a cero, volumen masivo, rentabilidad con tasas de conversión ridículas, es exactamente la que la inteligencia artificial de esta generación está permitiendo trasladar ahora a territorios donde antes no podía operar. Y esos nuevos horizontes incluyen artículos, podcasts, vídeos, canciones, posts en redes sociales.
Ya hemos comentado por aquí el fenómeno del slop, término con el que tengo mis problemas cuando lo usan para designar cualquier uso de la IA. Defiendo que, desde luego, la inteligencia artificial permite usos genuinamente creativos que van desde la edición y la corrección hasta la ideación, pasando por delegarle partes del proceso productivo o aprovechar su aleatoriedad como estímulo creativo. Un escritor que usa un modelo para documentarse, un músico que emplea herramientas generativas para explorar variaciones, un cineasta que acelera y abarata la postproducción: nada de esto tiene que ver con el slop. En mi humilde opinión.
El caso es que el verdadero slop no es sólo un problema estético sino también un asunto económico: el slop existe porque es rentable producirlo. Por aquí discutimos el caso de Inception Point AI produciendo más de 5.000 programas y más de 3.000 episodios de podcast a la semana. Con cada episodio costando menos de un dólar. Con la publicidad programática, basta con unas decenas de oyentes por episodio para alcanzar el umbral de rentabilidad.
El caso de Deezer es particularmente ilustrativo. Según su CEO, más del 80% de las reproducciones de música generada con IA en su plataforma son fraudulentas. El esquema es sencillo: subir miles de canciones creadas con herramientas de IA y luego reproducirlas masivamente con bots propios para generar pagos de royalties en perjuicio de los artistas legítimos. En 2025 detectaron y etiquetaron más de 13 millones de canciones creadas con IA, con un ritmo de 60.000 subidas diarias, aproximadamente el 39% del total. Dicho así, es el mismo fraude que existía antes de la IA (subir canciones de poco valor y montar bots que reproducen), pero la tecnología ha reducido la barrera de entrada y permite que sea un negocio de escala superautomatizado.
La gran plaga de las plataformas
En cada plataforma de contenidos empieza a operar la lógica del spammer. Cuando producir una canción, un episodio de podcast o un vídeo cuesta céntimos (y va a seguir bajando), la tasa de éxito necesaria para ser rentable baja a niveles absurdos. No necesitas que tu obra responda a criterios de calidad de ningún tipo, ni siquiera al impulso creador de un humano. Con que un algoritmo lo empuje un poco (o, como en el fraude en Deezer, metiendo bots), ya basta. El spammer automatiza el proceso completo y optimiza para volumen y margen.
La reacción de las plataformas es interesante porque revela hasta qué punto están atrapadas entre dos fuerzas contradictorias. Por un lado, necesitan el contenido y nunca se han basado en la auditoría de calidad cultural de las obras desde un criterio clásico de las disciplinas, así que ahora es tarde para eso. Por otro, la degradación de la calidad amenaza con espantar a los usuarios que generan el contenido valioso y, a la larga, a los propios anunciantes preocupados por estar llegando a humanos.
En X, su jefe de producto, Nikita Bier, lleva meses advirtiendo de que los bots de IA son, en sus palabras, la plaga de la plataforma. Experimentan con un botón de voto negativo en las respuestas para penalizar el ruido. Reddit está explorando un camino más radical. Su CEO, Steve Huffman, ha planteado el uso de verificación biométrica (Face ID, Touch ID, passkeys) para confirmar que hay una persona real detrás de cada cuenta. El objetivo es luchar contra los bots y el contenido generado con IA “sin renunciar al anonimato” que define la plataforma (diría que Huffman tiene una visión muy particular de lo que es el anonimato).
En el caso de Deezer, la medida es excluir del fondo de royalties las pistas detectadas como fraudulentas (no todas las generadas con IA, sólo las que luego usan bots para inflar reproducciones). Pero el modelo de reparto sigue siendo global: lo que paga cada usuario se distribuye según los rankings generales, lo que beneficia a quien consigue más reproducciones. Y ahí hay un incentivo para la lógica del spammer, añadiendo bots fraudulentos.
Lo que subyace a todas estas respuestas es algo más profundo que la lucha contra el spam. Lo que está en juego es el modelo mismo de apertura radical que definió a las plataformas durante la última década y media.
El fin de la fiesta de las plataformas abiertas y sin barrera de entrada
Las redes sociales crecieron ofreciendo que cualquiera podía crear una cuenta en segundos, publicar sin intermediarios y competir en igualdad de condiciones contra los actores establecidos. Ese anonimato fácil y esa barrera de entrada nula eran gran parte de su gran atractivo, enmienda completa al modelo de los medios tradicionales.
Ahora tengo la impresión de que esa apertura se ha convertido en una vulnerabilidad en tiempos de inteligencia artificial. Y que va a ser reevaluada más pronto que tarde. ¿Qué elementos creo que se van a reenfocar? Más alcance para los usuarios con identidad verificada, más jerarquías que refuercen a quienes ya están consolidados y reconocidos frente a los nuevos usuarios, más barreras de entrada para acceder a los ingresos en dichas plataformas.
Esto, si analizamos la deriva de las redes sociales y su transformación en plataformas de contenidos en los últimos años (asunto que hemos discutido por aquí en profundidad), es algo que puede verse incluso como un paso natural. Hay otros caminos, como la detección con IA de contenido slop, pero sospecho que conducen a un callejón sin salida.
Gates no acertó en su predicción del fin del spam ni tampoco le compró el resto del mundo su remedio a la tasa por enviar correos. Es 2026 y tengo la impresión de que su enfoque va a volver a estar sobre la mesa. Un modelo restrictivo, de subida de la barrera de entrada y de conversión de un espacio abierto a todos en otro con jerarquías claras y menos anonimato. Es justo lo que, sospecho, las plataformas están empezando a pensar que tiene sentido.



