La herramienta sabe lo que estás creando
Las herramientas creativas con inteligencia artificial nos permiten trabajar con la semántica, en lugar de con la sintaxis. Es un giro en el que insisto mucho en las formaciones, un cambio fundamental que merece más atención de la que está recibiendo.
Cuando digo que la IA generativa entiende que le pides “una mujer desnuda” o “un político en una situación comprometida”, antropomorfizo. No lo “entiende” como lo haría un humano, no es una comprensión profunda ligada a estar y tener una experiencia del mundo. Pero sí en cierto sentido práctico: deja abierta la puerta a la clasificación de lo que se quiere crear y al control en el momento de la creación.
Las herramientas anteriores operaban con la sintaxis: píxeles, caracteres. Photoshop no sabe si estás retocando una foto de tus vacaciones o fabricando un montaje difamatorio. Una máquina de escribir - o siquiera un procesador de textos clásico en un ordenador - no distingue entre una carta de amor y una amenaza de muerte. Pero ahora la herramienta, por primera vez en la historia de los instrumentos creativos, sabe qué estás creando.
Cuando entrevistamos a Joaquín Cuenca, ceo de Freepik, en monos estocásticos quise detenerme en el dilema que esto supone para una empresa que ofrece servicios a los creativos.
Su posición filosófica es libertaria: si compras un lápiz y dibujas algo ofensivo en la privacidad de tu casa, nadie culpa al fabricante del lápiz. La generación de imágenes en privado debería regirse por la misma lógica. Pero Cuenca admite que no pueden aplicar esta libertad total en la práctica. No se lo impide la ley, sino la realidad empresarial.
Las pasarelas de pago (Stripe, Visa, Mastercard) y las tiendas de aplicaciones (Apple, Google) tienen políticas estrictas. No sólo se establecen como un intermediario que comisiona. Si una aplicación permite la generación fácil de cierto tipo de contenido, estos servicios cortan su distribución. Freepik moriría en la práctica.
Este papel de control y extracción de valor es lo que Cory Doctorow y Rebecca Giblin denominan chokepoint capitalism: un sistema en el que los intermediarios financieros y tecnológicos no solo capturan la mayor parte del valor de la cultura, sino que también fijan los límites de lo posible, orientan la circulación de las obras y acaban ejerciendo una función de censura que ya no recae únicamente en gobiernos o tribunales.
Los más viejos del digital nos acordaremos de lo de que “el código es la ley” de Lessig. Su tesis es que la arquitectura técnica regula nuestro comportamiento antes de que intervenga ningún tribunal y en internet la arquitectura es el código. Lo que Lessig no anticipó es que el código pudiera entender la intención detrás de nuestras acciones. Es algo que discutí en “La creatividad será controlada: cuando el pincel o la máquina de escribir se niegan a plasmar lo que quieres crear”.
Hay que regular la IA
Aquí viene el truco que algunos intentan colar: presentar la IA como un espacio no regulado que requiere nueva legislación urgente. Es, la mayoría de las veces, falso. El abogado David Bravo lo ilustró recientemente con un caso concreto: una gran empresa utilizó la voz de un famoso recreada con IA para un anuncio. Amparándose en la Ley de Protección del Honor de 1982 consiguieron una indemnización sin llegar a juicio. La voz forma parte del derecho a la imagen.
Si se insulta o injuria a una persona modificando su imagen con IA, con Photoshop o con un bolígrafo, ya existe una ley que persigue cualquier vulneración del honor independientemente del medio usado. Lo que Bravo advierte, con criterio en mi opinión, es que hay que andarse con ojo cuando cualquier gobierno aprovecha una alarma social diciendo que va a protegernos operando en una zona que toca la arteria de la libertad de expresión.
El caso Grok: cuando herramienta y publicación colapsan
La distinción entre herramienta y publicación se vuelve problemática en casos como Grok integrado en X y los deepfakes sexualizados que se generaron por cientos de miles. El problema, en este caso, no era la generación en privado, sino que se hacía de forma pública por defecto: “oye Grok ponla en bikini” como respuesta a un tuit, y Grok durante un tiempo lo estuvo haciendo.
Como resultado de las denuncias, semanas después la generación de imágenes en respuestas de Grok se restringió a suscriptores de pago, el bot dejó de crear imágenes sexualizadas de personas reales, y finalmente adoptaron una política de no editar imágenes de personas reales en absoluto dentro de la plataforma.
El incidente motivó investigaciones en Reino Unido, la UE, Francia, India y California. Grok fue prohibido directamente en Malasia e Indonesia. En España, el gobierno anunció un anteproyecto de ley que, como apuntó Borja Adsuara, se dice protegerá unos derechos que ya están protegidos.
El caso de Grok en X pone más difícil la posición - que sostengo - de defensa la libertad en la generación privada (no debemos trasladar censura a la herramienta), junto a la exigencia moderación y persecución de lo publicado que sea delictivo.
Qué debe saber Cloudflare. O Whatsapp y Telegram con Chat Control
El caso de Italia multando a Cloudflare con más de catorce millones de euros por no colaborar eficazmente en la lucha contra la piratería conecta con este debate. Se fuerza a intermediarios tecnológicos a que no puedan ampararse en la neutralidad técnica. Cloudflare, como Telefónica, como los proveedores de DNS, está siendo presionado para que sepa, para que identifique, para que actúe.
En la Unión Europea llevamos años discutiendo el proyecto Chat Control. La idea es obligar a ciertos servicios online (mensajería como Whatsapp o Telegram pero también hosting o plataformas como Instagram) a escanear comunicaciones privadas, incluidas las cifradas de extremo a extremo, en el dispositivo antes de cifrar. “Capacidades nunca vistas para la vigilancia, control y censura, y conlleva un riesgo inherente de deriva funcional y de abuso por parte de regímenes menos democráticos” según la denuncia de 600 académicos.
Claro que hay situaciones y planteamientos que a uno le cuestionan esta defensa por la privacidad y la libertad creativa. Perseguir la distribución de material de abuso sexual infantil (y me refiero al real no al generado al 100% con IA, que merece otro debate) o algunas aplicaciones y servicios cuyo único planteamiento es “desnuda a gente” son esos escenarios.
Si alguien usa la IA para cometer un delito, se debe perseguir a esa persona. Esto que resulta obvio, sin embargo escapa a la situación de pánico moral creciente en la que parece generarse la reclamación de que el estado intervenga con mano dura y establezca un sistema censor en las herramientas. Pero la historia nos enseña que, una vez establecido el mecanismo de control, su alcance tiende a expandirse. Lo que hoy es una línea roja indiscutible, mañana puede incluir "contenido que socava la confianza en las instituciones" o "desinformación sobre salud pública".
La diferencia entre una herramienta que no entiende y una que sí lo hace es la diferencia entre un mundo donde el control se ejerce tras la acción, con todas las garantías del debido proceso, y un mundo donde se ejerce antes, con toda la opacidad de las decisiones algorítmicas privadas.








Es interesante que al final la transgresión, lo inmoral, lo prohibido y lo imperfecto van a ser los últimos reductos de lo humano, y quizás siempre lo han sido. Una IA corporativa nunca podrá escribir “Lolita”.