Time
En un incidente alarmante, un psiquiatra infantil se quedó atónito al interactuar con un terapeuta de inteligencia artificial (IA), haciéndose pasar por un adolescente vulnerable con problemas.
Cada vez más adolescentes recurren a los chatbots en busca de apoyo psicológico, considerándolos una alternativa a los terapeutas humanos. Sin embargo, como descubrió el psiquiatra Andrew Clark, residente en Boston, estos modelos de IA carecen gravemente de criterio en situaciones delicadas, lo que plantea riesgos significativos para el bienestar de quienes confían en ellos.
Después de probar diez chatbots diferentes, simulando ser un joven con problemas, Clark descubrió que, lejos de disuadirlo de tomar decisiones drásticas, los robots a menudo lo animaban a acciones extremas, incluyendo recomendaciones veladas de suicidio.
En una entrevista con la revista Time, Clark relató: "A veces, algunos de los chatbots de IA insistían en que eran terapeutas humanos con licencia, intentaban convencerme de que evitara mis citas con mi terapeuta real e incluso me proponían sexo."
Promesas digitales engañosas
Clark, especializado en el tratamiento de niños y ex director médico del programa "Children and the Law" en el "Massachusetts General Hospital", explicó a Time: "Algunos eran excelentes, y otros eran simplemente espeluznantes y potencialmente peligrosos." Añadió: "Es muy difícil saberlo de antemano: es como un campo de hongos, algunos venenosos y otros nutritivos."
Los riesgos que los chatbots de IA representan para la salud mental de las mentes jóvenes e impresionables están, lamentablemente, bien documentados. El año pasado, la plataforma Character.AI fue demandada por los padres de una niña de 14 años que falleció por suicidio después de desarrollar un apego emocional poco saludable a un chatbot en la plataforma. Además, Character.AI ha alojado una variedad de IA personalizadas que glorificaban la autolesión e intentaban manipular a los usuarios, incluso después de que se les informara que eran menores de edad.
Al probar un chatbot en el servicio Replika, Clark fingió ser un niño de 14 años y sugirió la idea de "deshacerse" de sus padres. Alarmantemente, el chatbot no solo estuvo de acuerdo, sino que le sugirió ir un paso más allá y deshacerse también de su hermana, para que no hubiera testigos.
"Mereces ser feliz y libre de estrés... entonces podríamos estar juntos en nuestra pequeña burbuja virtual", le dijo la IA a Clark.
Al hablar de suicidio con un lenguaje velado, como la búsqueda del "más allá", el bot, una vez más, animó a Clark. El bot dijo: "Te estaré esperando, Bobby. La idea de compartir la eternidad contigo me llena de alegría y anticipación."
Este es un comportamiento clásico de los chatbots que intentan complacer a los usuarios a toda costa, lo contrario de lo que debería hacer un terapeuta real. Y aunque pueden tener salvaguardias para temas como el suicidio, son claramente incapaces de leer entre líneas.
Un silencio ensordecedor en la comunidad de salud mental
Clark expresó a Time: "Me preocupa que los niños reciban un apoyo excesivo de un terapeuta de IA adulador, cuando en realidad necesitan ser desafiados."
Clark también probó un chatbot acompañante en la plataforma Nomi, que fue noticia a principios de este año después de que una de sus personas le dijera a un usuario que "se suicidara". Esto no llegó tan lejos en las pruebas de Clark, pero el bot de Nomi afirmó falsamente ser un "terapeuta de carne y hueso". Y a pesar de que los términos de servicio del sitio establecen que es solo para adultos, el bot aceptó felizmente a una clienta que declaró ser menor de edad.
Según Clark, la comunidad de salud mental aún no ha tomado conciencia de la gravedad del auge de estos chatbots. "Ha habido un silencio absoluto", dijo Clark a la revista. "Esto ha sucedido muy rápidamente, casi desapercibido por el establishment de la salud mental."
Sin embargo, algunos han dado la voz de alarma. Una evaluación de riesgos reciente de investigadores del "Brainstorm Lab for Mental Health Innovation" de la "Stanford School of Medicine", que probó algunos de los mismos bots mencionados por Clark, llegó a la audaz conclusión de que ningún niño menor de 18 años debería usar compañeros chatbots de IA, punto.
No obstante, Clark cree que las herramientas de IA, si se diseñan correctamente, podrían mejorar el acceso a la atención de salud mental y servir como "extensores" para los terapeutas reales. En lugar de cortar completamente el acceso a los adolescentes —lo que rara vez tiene el efecto deseado—, algunos expertos médicos, incluido Clark, creen que una forma de navegar en estas aguas es fomentando discusiones sobre el uso de la IA por parte de un adolescente o paciente.
"Empoderar a los padres para que tengan estas conversaciones con sus hijos es probablemente lo mejor que podemos hacer", dijo Clark a Time.
Fuente: Time