5 Comentarios
Avatar de User
Avatar de David Lopez

La GenAI pone en riesgo la memoria actual, la memoria a largo plazo y, quizás, la capacidad de razonar. A cambio (está por ver) es posible/probable que potencie áreas de investigación.

Pocas veces se ha visto antes una tecnología con tan difícil balance coste/beneficio. Creo.

Expand full comment
Avatar de Uxía Baños

El ser humano a menudo escogerá una dulce mentira antes que luchar contra una realidad dolorosa. Y si la tecnología ofrece soluciones para que nuestras seres queridos nunca nos abandonen, absolutamente todos caeremos porque es uno de nuestros momentos de mayor vulnerabilidad. ¿Es esta la inmortalidad que nos prometieron?

Ser conscientes de esto es el primer paso para prepararnos y desarrollar el pensamiento crítico para cuando llegue el momento. Gracias por el artículo.

Expand full comment
Avatar de Adolfo González Uzábal

¿Y por qué quedarnos en recreaciones del pasado? ¿Por qué no un vídeo de tu ex bailando en la discoteca para esos ratos en que te asalta la soledad? ¿O un modelo con el que seguir charlando una vez que te dejó?

La distop_IA cada vez más cerca. :) :(

https://www.linkedin.com/posts/uzabal_distopabria-ia-activity-7316331782054772736-lGbO?utm_source=share&utm_medium=member_desktop&rcm=ACoAABJUFuUB5x4N3nnJcyIcaCuOsv4K1FkmMvQ

Expand full comment
Avatar de Oriol Marti Carreras

Me ha encantado la reflexión a la que me has llevado, sobre si el riesgo no es tan técnico (solo) sino también emocional y como puede afectar a nuestra memoria… vivimos en una simulación … ;)

Expand full comment
Avatar de Edgar Otero

Estas conexiones emocionales con la IA, ya sea a través de la interacción con un personaje nuevo o con la reimaginación de los recuerdos, son preocupantes, bajo mi punto de vista. Por ejemplo, ahora es posible recrear a alguien que ha fallecido. Generar un vínculo con esa IA es ponerse en manos de las grandes corporaciones. ¿Y si la empresa deja de ofrecer el servicio? ¿Y si te obliga a pagar cada vez más por interactuar con tus seres queridos? ¿Y si un día el modelo alucina y te devuelve a la triste realidad de un plumazo?

Para mí, la IA es una gran herramienta, pero su campo de actuación no debe pasar de eso. No quiero que el modelo me dore la píldora, sino que ejecute las acciones que le he solicitado.

Hace un tiempo escribía estos dos posts, por si quieres echarles un vistazo:

https://www.edgarotero.es/p/chatgpt-se-volvio-demasiado-adulador

https://www.edgarotero.es/p/encarcelar-a-la-ia

Expand full comment