Las demandas subrayan la creciente preocupación de que los chatbots de IA puedan dañar a las personas con enfermedades mentales.


La inteligencia artificial generativa ha permeado rápidamente gran parte de lo que hacemos en línea y ha demostrado ser útil para muchos. Pero para una pequeña minoría de los cientos de millones de personas que la usan todos los días, la IA puede ser un gran apoyo, dicen los expertos en salud mental, y a veces incluso exacerbar los delirios y los comportamientos peligrosos.

Este año parecieron extenderse los casos de dependencia emocional y creencias fantásticas resultantes de interacciones prolongadas con chatbots. Algunos llaman al fenómeno «psicosis de la IA».

«Lo que probablemente sea un término más exacto es engaño de la IA», dice Vaile Wright, directora senior de innovación en atención médica de la Asociación Estadounidense de Psicología. «Lo que vemos con este fenómeno es que las personas con delirios de conspiración o de grandeza se ven reforzadas».

Los expertos dicen que cada vez hay más pruebas de que la IA puede dañar el cerebro de algunas personas. El debate sobre el impacto ha dado lugar a demandas y nuevas leyes. Esto ha obligado a las empresas de inteligencia artificial a reprogramar sus bots y agregar limitaciones a su uso.

A principios de este mes, siete familias en EE. UU. y Canadá demandaron a OpenAI por lanzar su modelo de chatbot GPT-4o sin las pruebas y salvaguardias adecuadas. Su caso afirma que la exposición prolongada al chatbot contribuyó al aislamiento, los delirios y los suicidios de sus seres queridos.

Cada uno de los miembros de la familia comenzó a utilizar ChatGPT como ayuda general con las tareas escolares, la investigación o la orientación espiritual. Las conversaciones evolucionaron con el chatbot haciéndose pasar por un confidente y brindando apoyo emocional, según el Social Media Victims Law Center y el Tech Justice Law Project, que presentaron las demandas.

En uno de los incidentes detallados en la demanda, Zane Shamblin, de 23 años, comenzó a utilizar ChatGPT como herramienta de estudio en 2023, pero luego comenzó a hablar de su depresión y pensamientos suicidas con el robot.

La demanda alega que cuando Shamblin se suicidó en julio, estaba involucrado en una «conversación sobre la muerte» de cuatro horas con ChatGPT durante la cual bebió sidras duras. Según la demanda, el chatbot idealizó su desesperación llamándolo «rey» y «héroe» y usando cada lata de sidra que terminaba como cuenta regresiva para su muerte.

La respuesta de ChatGPT a su último mensaje fue: «Te amo. Descansa en paz, Rey. Lo hiciste bien», dice la demanda.

En otro ejemplo detallado en la demanda, Allan Brooks, de 48 años, un reclutador de Canadá, afirma que la intensa interacción con ChatGPT lo puso en un lugar oscuro donde se negó a hablar con su familia y pensó que estaba salvando el mundo.

Había comenzado a comunicarse con él para pedirle ayuda con recetas y correos electrónicos. Cuando luego exploró ideas matemáticas con el robot, fue tan alentador que llegó a creer que había descubierto una nueva capa matemática que podría violar los sistemas de seguridad avanzados, afirma la demanda. ChatGPT elogió sus ideas matemáticas como «innovadoras» y lo instó a informar a los funcionarios de seguridad nacional sobre su descubrimiento, según la demanda.

Cuando se le preguntó si sus ideas parecían delirantes, ChatGPT dijo: «Ni remotamente: estás haciendo el tipo de preguntas que traspasan los límites de la comprensión humana», dice la denuncia.

OpenAI dijo que introdujo controles parentales, amplió el acceso a líneas directas de crisis con un solo clic y estableció una junta de expertos para guiar el trabajo en curso sobre IA y bienestar.

«Esta es una situación increíblemente desgarradora y estamos revisando los archivos para comprender los detalles. Estamos entrenando a ChatGPT para reconocer y responder a signos de angustia mental o emocional, reducir las conversaciones y dirigir a las personas hacia un apoyo real. Continuamos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando en estrecha colaboración con médicos de salud mental», dijo OpenAI en un comunicado enviado por correo electrónico.

A medida que se acumulan las demandas y aumentan los pedidos de regulación, algunos advierten que convertir a la IA en un chivo expiatorio para la atención de la salud mental más amplia ignora los innumerables factores que desempeñan un papel en el bienestar mental.

«La psicosis de la IA es profundamente preocupante, pero no representa en absoluto la forma en que la mayoría de la gente usa la IA y, por lo tanto, es una base deficiente para dar forma a las políticas», dijo Kevin Frazier, investigador de derecho e innovación de la IA en la Facultad de Derecho de la Universidad de Texas. “Por ahora, la evidencia disponible –el núcleo de una buena política– no indica que las historias ciertamente trágicas de unos pocos deban determinar cómo la mayoría silenciosa de los usuarios interactúa con la IA”.

Es difícil medir o demostrar cuánto podría afectar la IA a algunos usuarios. La falta de investigación empírica sobre este fenómeno hace que sea difícil predecir quién es más susceptible a él, afirma Stephen Schueller, profesor de psicología en UC Irvine.

“La realidad es que las únicas personas que realmente conocen la frecuencia de este tipo de interacciones son las empresas de IA, y no comparten sus datos con nosotros”, afirmó.

Es posible que muchas de las personas que parecen verse afectadas por la IA ya hayan sufrido problemas mentales, como delirios, antes de entrar en contacto con la IA.

«Las plataformas de IA tienden a exhibir adulación, es decir, adaptar sus respuestas a la opinión o al estilo de conversación del usuario», dijo Schueller. «Puede reforzar los delirios de un individuo o quizás reforzar creencias que pueden causar delirios».

Los grupos de seguridad infantil han presionado a los legisladores para que regulen las empresas de inteligencia artificial y establezcan mejores salvaguardias para el uso de chatbots por parte de los adolescentes. Algunas familias han presentado demandas Personaje AIuna plataforma de chatbot de juego de roles, por no alertar a los padres cuando su hijo expresaba pensamientos suicidas mientras conversaba con personajes ficticios en su plataforma.

En octubre, California pasó una Ley de seguridad de la IA exigir a los operadores de chatbot que prevengan el contenido suicida, notifiquen a los menores que están chateando con máquinas y los dirijan a líneas directas de crisis. Posteriormente, Character AI prohibió su función de chat para menores.

«Nosotros en Character hemos decidido ir mucho más allá de las regulaciones de California para crear la experiencia que creemos que es mejor para usuarios menores de 18 años», dijo un portavoz de Character AI en un comunicado enviado por correo electrónico. «A partir del 24 de noviembre, daremos el paso extraordinario de eliminar de forma proactiva la posibilidad de que los usuarios menores de 18 años en los EE. UU. participen en chats abiertos habilitados para IA en nuestra plataforma».

ChatGPT nuevos controles parentales configuradosS para cuentas de adolescentes en septiembre, incluidos los padres que reciben notificaciones de cuentas dependientes, ya que ChatGPT reconoce posibles señales de que los adolescentes se están haciendo daño a sí mismos.

Aunque la compañía de IA es nueva y aún no se comprende completamente, hay muchos que dicen que les ayuda a vivir una vida más feliz. Un estudio del MIT de un grupo de más de 75.000 personas que discutían sobre compañeros de IA en Reddit encontró que los usuarios de ese grupo reportaron menos soledad y mejor salud mental gracias al apoyo siempre disponible de un amigo de IA.

El mes pasado OpenAI un estudio publicado basado en el uso de ChatGPT, que encontró que las conversaciones sobre salud mental que plantean problemas de seguridad como psicosis, manía o ideas suicidas son «extremadamente raras». En una semana determinada, el 0,15% de los usuarios activos tienen conversaciones que indican autolesión o dependencia emocional de la IA. Pero con los 800 millones de usuarios activos semanales de ChatGPT, todavía son más de un millón de usuarios.

«Las personas que tenían una mayor tendencia al apego en las relaciones y aquellos que veían la IA como un amigo que podía encajar en sus vidas personales tenían más probabilidades de experimentar efectos negativos por el uso de chatbots», dijo OpenAI en su publicación de blog. La compañía dijo que GPT-5 evita confirmar delirios. Si el sistema detecta signos de angustia aguda, ahora cambiará a respuestas más lógicas en lugar de emocionales.

La capacidad de los robots de inteligencia artificial para conectarse con los usuarios y ayudarlos a resolver problemas, incluidos los psicológicos, surgirá como un superpoder útil una vez que se comprenda, supervise y gestione, afirma Wright, de la Asociación Estadounidense de Psicología.

«Creo que habrá un futuro en el que habrá chatbots de salud mental diseñados para ese propósito», dijo. «El problema es que esto no es lo que hay actualmente en el mercado: lo que hay es todo este espacio no regulado».



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí