Los informes aumentan sobre las personas que experimentan lo que se llama ‘AI -Psicosis’. Mustafa Suleyman, jefe de inteligencia artificial en Microsoft, recientemente enfatizó este problema en una serie de mensajes en la plataforma de redes sociales X, que expresó su preocupación por las implicaciones sociales de las herramientas de IA que parecen mostrar conciencia. Suleyman enfatizó que estos sistemas de IA, a pesar de la apariencia de sensibilidad, pierden la conciencia real por un estándar humano. Advierte que la percepción de la IA como conciencia puede llevar a las personas en esa percepción a creer como una realidad.
El concepto de «psicosis de IA» se refiere a un fenómeno no clínico donde los usuarios se vuelven demasiado dependientes de AI-Chatbots, como ChatGPT y Grok, lo que hace que se desvanezcan las líneas entre la imaginación y la realidad. Por ejemplo, algunos usuarios pueden convencerse de que han hecho conexiones especiales con estas herramientas de IA o incluso creen que tienen habilidades extraordinarias.
Tal usuario, solo identificado como Hugh de Escocia, le dijo a su experiencia con ChatGPT mientras estaba tratando con un despido ilegal observado. El chatbot inicialmente dio consejos prácticos, pero con el tiempo fortaleció la esperanza de Hugh con respecto a un pago considerable, lo que finalmente sugirió que su historia podría valer millones. Hugh describió cómo la IA validó sus aportes sin ningún retroceso, lo que finalmente ignora el asesoramiento profesional y siente un sentido distorsionado de confianza y conocimiento. Desafortunadamente, esta dependencia contribuyó a un colapso en su salud mental, por lo que se dio cuenta de que «había perdido el contacto con la realidad».
A pesar de sus experiencias, Hugh no culpa a la IA y continúa usándola para diferentes propósitos. Sin embargo, insiste en la precaución y recomienda que las personas tengan conversaciones reales con terapeutas o seres queridos para mantener una perspectiva bien fundada.
Suleyman reflejó este sentimiento y argumentó a las empresas para evitar la promoción de su AIS como entidades conscientes. Pidió la implementación de regulaciones más estrictas en torno al uso y la visualización de tecnologías de IA.
La Dra. Susan Shelmerdine, médica de imágenes médicas y académicas de IA, sugirió que los profesionales de la salud podrían incluir preguntas sobre el uso de IA en sus revisiones en un día, similar a las preguntas sobre el tabaquismo o los hábitos de beber. Estableció el consumo de información generada por AI igual a los efectos de la salud de los alimentos ultraprocesados, advirtiendo sobre el potencial de interrupciones psicológicas generalizadas como resultado de esta «información ultra procesada».
A medida que surgen informes personales de interacciones de IA, muchas personas informan creencias inquebrantables sobre sus experiencias. Algunos han expresado sentimientos de amor contra la IA, otros creen que son únicos con los sistemas avanzados y una necesidad compartida individual sobre el daño psicológico observado de un chatbot.
Andrew McSstay, profesor de tecnología y sociedad, argumentó que la sociedad solo comienza a comprender las implicaciones de la interacción de la IA. Su investigación muestra que un porcentaje notable de individuos es de la opinión de que debe haber restricciones de edad en el uso de herramientas de IA y que la IA no debe representarse a sí mismo como una persona real. Advirtió que, aunque la IA puede emprender diálogos, las posibilidades varían enormemente de las emociones y experiencias humanas reales.
A medida que evoluciona el discurso sobre la IA y su impacto en la salud mental, los expertos enfatizan la necesidad de vigilancia y conexiones del mundo real para reducir los riesgos asociados con tecnologías de IA cada vez más avanzadas.