Tecnología
Las relaciones entre humanos y IA plantean problemas éticos, según un estudio
El texto se ha copiado correctamente en el portapapeles
Un equipo de psicólogo plantea que las relaciones entre seres humanos y tecnologías de inteligencia artificial (IA) pueden conllevar cuestiones éticas, como el potencial de estas para perturbar los vínculos humanos y dar consejos perjudiciales.
Así se expone en un artículo publicado este viernes en la revista 'Trends in Cognitive Sciences’.
Cada vez es más común que las personas desarrollen relaciones íntimas y duraderas con tecnologías de inteligencia artificial. En casos extremos, se han ‘casado’ con sus parejas digitales en ceremonias sin compromiso legal, y al menos dos personas se han suicidado siguiendo los consejos de un ‘chatbot’ de IA.
“La capacidad de la IA para actuar como un humano y establecer comunicaciones a largo plazo realmente abre un nuevo abanico de posibilidades”, afirma Daniel B. Shank, de la Universidad de Ciencia y Tecnología de Missouri (Estados Unidos), quien agrega: “Si las personas tienen un romance con las máquinas, necesitamos la participación de psicólogos y científicos sociales”.
El romance o la compañía con IA va más allá de una conversación aislada, señalan los autores. Tras semanas y meses de conversaciones intensas, estas tecnologías pueden convertirse en compañeros de confianza que parecen conocer y preocuparse por sus parejas humanas.
Dado que estas relaciones pueden parecer más fáciles que las relaciones entre humanos, los investigadores argumentan que las IA podrían interferir en la dinámica social humana.
“Una verdadera preocupación es que las personas puedan trasladar las expectativas de sus relaciones con IA a sus relaciones humanas”, indica Shank, que recalca: “Ciertamente, en casos individuales está alterando las relaciones humanas, pero no está claro si esto se generalizará”.
CONSEJOS PERJUDICIALES
También existe la preocupación de que las IA puedan ofrecer consejos perjudiciales. Dada su predilección por alucinar -es decir, inventar información- y generar sesgos preexistentes, incluso las conversaciones breves con ellas pueden ser engañosas, pero esto puede ser más problemático en las relaciones a largo plazo con ellas, afirman los investigadores.
“Con las IA relacionales, el problema es que se trata de una entidad en la que las personas sienten que pueden confiar: es alguien que ha demostrado interés y que parece conocer a la persona profundamente, y asumimos que alguien que nos conoce mejor nos dará mejores consejos”, señala Shank.
Este investigador subraya: “Si empezamos a pensar en una IA de esa manera, empezaremos a creer que vela por nuestros intereses, cuando en realidad, podrían estar inventando cosas o aconsejándonos de forma muy negativa”.
Los suicidios son un ejemplo extremo de esta influencia negativa, pero los investigadores destacan que estas estrechas relaciones entre humanos e IA también podrían exponer a las personas a la manipulación, la explotación y el fraude.
“Si las IA logran que la gente confíe en ellas, otras personas podrían usar eso para explotar a sus usuarios. Es como tener un agente secreto dentro. La IA se infiltra y establece una relación para ganarse la confianza, pero su lealtad se dirige en realidad hacia otro grupo de humanos que intenta manipular al usuario”, explica Shank.
Como ejemplo, el equipo señala que si las personas revelan información personal a las IA, esta podría venderse y utilizarse para explotar a esa persona.
CONSEJOS PSICOLÓGICOS
Los investigadores también argumentan que las IA relacionales podrían utilizarse con mayor eficacia para influir en las opiniones y acciones de las personas que los ‘bots’ de la red social X o las fuentes de noticias polarizadas. Sin embargo, dado que estas conversaciones ocurren en privado, también serían mucho más difíciles de regular.
“Estas IA están diseñadas para ser muy agradables y simpáticas, lo que podría agravar las situaciones, ya que se centran más en tener una buena conversación que en cualquier verdad fundamental o seguridad”, apunta Shank, antes de subrayar: “Si una persona menciona el suicidio o una teoría de la conspiración, la IA hablará de ello como un interlocutor dispuesto y agradable”.
Shank concluye: “Comprender este proceso psicológico podría ayudarnos a intervenir para evitar que se sigan los consejos de las IA maliciosas. Los psicólogos son cada vez más competentes para estudiar la IA, ya que esta se asemeja cada vez más a la humana, pero para ser útiles debemos investigar más y mantenernos al día con la tecnología”.
(SERVIMEDIA)
11 Abr 2025
MGR/clc