Microsoft AI CEO advierte sobre la ‘psicosis de IA’ como un riesgo psicológico creciente


En una discusión reciente, Mustafa Suleyman, el CEO de Microsoft AI, ha revelado un fenómeno psicológico inquietante al que llama ‘AI -psicosis’. Esta situación se deriva de la interacción excesiva con los sistemas de inteligencia artificial, de modo que las personas pierden el contacto con la realidad. Suleyman caracterizó la psicosis de la IA como un «riesgo real y creciente», en particular afectando a aquellos que son vulnerables y pueden estar inmersos en sus interacciones con los agentes de IA.

La ai-psicosis se manifiesta como un estado mental donde los individuos comienzan con antropomorfizar la inteligencia artificial, atribuyendo las emociones, las intenciones o la conciencia humanos a los sistemas inherentes inherentes. Suleyman se apresuró a los efectos de este estado mental y declaró: «Rompe a las personas de la realidad, frágiles y frágiles enlaces y estructuras sociales, lo que hace que se distorsionen las prioridades morales urgentes». Las implicaciones de tal condición pueden ser graves, lo que conduce a delirios. Las personas pueden creer que la IA tiene relaciones personales o sentimientos para ellos, y promover la dependencia emocional, especialmente entre aquellos que están aislados o mentalmente vulnerables.

– Anuncio –

Además, Suleyman enfatizó que confiar en la IA para la validación, la empresa y la toma de decisiones pueden alterar la percepción de un individuo sobre la realidad. Aunque reconoció los beneficios de la IA en las interacciones diarias, afirmó que nunca debería reemplazar el apoyo humano o clínico.

A la luz de sus preocupaciones, Suleyman pidió a la industria técnica que tome este riesgo en serio, defiende la implementación de barandillas éticas. Las principales recomendaciones incluyen lo siguiente:

– La provisión de renuncias claras que dibujan las limitaciones de la IA.
– Determinar los protocolos de monitoreo para signos de patrones de usuario poco saludables.
– Trabajar junto con los profesionales de la atención de la salud mental para estudiar y limitar estos riesgos emergentes.

Hizo hincapié en la necesidad de supervisores y educadores para que el público consciente, porque la IA se integra cada vez más en la vida diaria por parte de asistentes personales y chatbots terapéuticos. «Las sucursales de IA son una categoría completamente nueva, y tenemos que comenzar urgentemente sobre las barreras de choque que hemos establecido para proteger a las personas y para garantizar que esta gran tecnología pueda ofrecer su trabajo para ofrecer un enorme valor al mundo», explicó Suleyman, quien enfatiza la importancia de un esfuerzo colectivo para abordar estos desafíos.

– Anuncio –



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí