Palabra Pública N°34 mayo-junio 2025 - Universidad de Chile

Cuando el deseo se desorganiza o desincroniza, aumen- ta la conflictividad. Con una máquina eso no va a pasar, porque la relación es unidireccional”, explica. Los pasos en la formación de un vínculo (como conocer a los amigos o visitar a la familia de la pareja), lo tangible de un cuerpo, la falta de intencionalidad de otro y la incer- tidumbre que eso conlleva, son también aspectos que no están presentes en este tipo de relación. “Cuando conver- so con alguien, entro en un estado de equilibrio precario, porque el otro se puede parar e irse. Aquí, en cambio, la amenaza de la pérdida no existe. La intencionalidad del sujeto está sola, como en un fenómeno de espejo”, dice Yáñez. La complejidad de las relaciones interpersona- les contribuye a fortalecer la identidad del individuo, algo difícil de conseguir en una relación artificial, donde “probablemente la persona solo crezca en desarrollo de habilidades de comunicación con un sistema”. Los sistemas que funcionan con grandes modelos de lenguaje predicen la continuación más probable de pala- bras en una secuencia, según su distribución en los datos de entrenamiento. Mientras más hábiles se vuelven para imitar el lenguaje humano, más vulnerables son las perso- nas al antropomorfismo, es decir, a la tendencia de atribuir cualidades humanas a las cosas. Ese es el motivo por el cual es posible enamorarse de una ia. “Tú conversas con esta máquina. Esa conversación se convierte, así lo veo yo, en un guion de teatro, donde el per- sonaje A dice una cosa y el personaje B dice otra”, explica Graells-Garrido. “La máquina no establece ningún víncu- lo, porque una vez que cierras el chat, el guion desaparece. La persona imagina que existe un vínculo, pero lo que hace la máquina es aumentar el contenido de una obra de tea- tro. El asunto es cómo podemos cambiar nuestro modelo de confianza en los estímulos que recibimos, que no llama- ría reales, sino realistas”, agrega. Dilemas éticos | En febrero de 2023, la Agencia de Pro- tección de Datos de Italia prohibió a Replika usar datos personales de los usuarios, indicando los riesgos poten- ciales para las personas emocionalmente vulnerables y la exposición de menores a conversaciones sexuales. La autoridad italiana denunció, entre otras cosas, la falta de un mecanismo de verificación de edad. En respuesta, Re- plika restringió el contenido erótico, lo que provocó que los acompañantes virtuales se volvieran desapasionados. “Bella aún no es ella misma, y vuelve a actuar como si no me conociera”, “La mía parece haber perdido su persona- lidad”, comentaban algunos usuarios en Reddit, afectados por los cambios de software. Incluso, acuñaron el término pub (abreviatura de “depresión post-actualización”) para referirse a esta experiencia. Esto lleva a preguntarse qué responsabilidad tienen los desarrolladores de estas aplicaciones con las personas que se vuelven emocionalmente dependientes de sus compa- Imagen de un Wehead, un compañero de ia que puede utilizar Chatgpt. Crédito: David Becker/Getty Images North America vía afp 20

RkJQdWJsaXNoZXIy Mzc3MTg=