El humano en el proceso, el director de orquesta y la bolsa de Doritos
En la inteligencia artificial agéntica se quieren pasar años en meses
Es probable que Taki Allen no tenga una opinión demasiado favorable de la inteligencia artificial. El pasado 20 de octubre, en su instituto de Baltimore, varios agentes se acercaron a él con las armas desenfundadas, le obligarona a tirarse al suelo, le esposaron y lo registraron.
Lo que desencadenó su detención fue que, en una sala lejana, un sistema de vigilancia con “detección de armas por IA” - Omnilert Gun Detect, integrado en las 7.000 cámaras del distrito escolar - clasificó lo que aparecía en pantalla (la silueta de Taki) como sospechosa, con algo que el algoritmo clasificó como una posible pistola. Era una bolsa de Doritos.
En esta historia se ha puesto el énfasis en los márgenes de error de los sistemas de clasificación de imágenes de la inteligencia artificial. Con el número de cámaras y las horas que pasan grabando, si tiramos por lo bajo y hablamos de 500.000 análisis diarios, tendríamos unos 50 falsos positivos para un sistema con una tasa de acierto del 99,99%. Que Taki sea negro nos devuelve a los debates sobre sesgos existentes en los datos de entrenamiento de la inteligencia artificial.
Pero hay algo más en este caso de especial interés. La alerta del sistema de IA no iba directamente a la policía sino que exigía una revisión humana previa. Según la reconstrucción de los medios locales, el positivo se revisó y llegó a marcarse como resuelto en el sistema, pero una cadena de malentendidos llevó igualmente a que se avisara a la policía.
En estos tiempos de IA agéntica hemos visto moverse el discurso sobre qué supone adoptarla en serio. Hemos pasado del copiloto, del becario / ayudante al que pedimos pequeñas tareas atómicas de procesamiento o generación, a lo que se ha venido a llamar “el humano en el proceso”: la IA se encarga de un workflow más complejo que la generación o consulta puntual, interactúa con varios sistemas y además de planificar acciones, le permitimos ejecutarlas.
El discurso, a partir de los sistemas de IA agéntica y de plataformas para crear estos conjuntos de procesos, ha desembocado en la idea de “orquestación de agentes de inteligencia artificial”: el humano pasa de estar pendiente de los errores, límites y alucinaciones del agente a ser una suerte de entrenador y coordenador de flujos complejos.
Es el momento de plataformas como n8n o Activepieces. Sobre ellos y la orquestación me interesó leer a Dries Buytaert, fundador de Drupal, en su blog. Tecnólogos como Buytaert intentan anticipar las consecuencias de este giro. Algunas las comentamos con el caso del agente de Perplexity comprando en Amazon, otros son más difíciles de perfilar: los sistemas software pasarían de ser el punto central de la resolución de una tarea con la interacción de humanos a convertirse en nodos - más o menos importantes - dentro de redes orquestadas por agentes de inteligencia artificial. Hay que repensar estas piezas para disparar flujos en otros sistemas y recibir acciones de vuelta.
Sigo con la sensación de que la industria quiere acelerar demasiado.
Que los años necesarios para la madurez de esta tecnología se espera que suceda en meses; que el problema de la alucinación, que sigue siendo el pecado original de los LLMs que hay debajo de todo esto, está siendo obviado de la discusión; que un error en una acción de la IA, que sucederá mucho aunque acierte del 99,99% de las veces, se arrastra, acumula y amplifica en todo el workflow.
Es por eso que no estamos para nada listos para automatizar procesos complejos con IA. Que debemos mantener el humano en el proceso porque, por muy buena que sea esta tecnología estocástica y aleatoria, el riesgo de error persiste y se impone. Podríamos llamarlo el síndrome de la bolsa de Doritos en la IA.






