La consultoría de IA para asesoramiento médico conduce a una grave crisis de salud


Ha surgido un asunto en cuestión para enfatizar los riesgos relacionados con la consultoría de inteligencia artificial para el asesoramiento médico. Un hombre de 60 años ingresó a un hospital después de experimentar síntomas psiquiátricos graves, incluidos problemas intensos de sed y coordinación. Este doloroso giro de los eventos siguió a su intento de mejorar su dieta al reemplazar una sal de mesa común con una alternativa aparentemente más saludable basada en la información que recibió de ChatGPT.

El hombre, después de leer sobre los riesgos para la salud relacionados con el cloruro de sodio (el nombre químico para la sal de la mesa), preguntó sobre las alternativas en ChatGPT. Se le aconsejó reemplazar el cloruro de sodio con bromuro de sodio. Aunque el bromuro de sodio puede aparecer en la sal de la mesa, no es un reemplazo equivalente. El bromuro de sodio a menudo se usa en plicaciones industriales y de limpieza, no está destinado al consumo de alimentos y puede provocar complicaciones graves de salud.

Motivado por sus antecedentes en los alimentos, el hombre realizó un experimento en el que eliminó el cloruro de sodio de su dieta y, en cambio, optó por el bromuro de sodio producido en línea. Tres meses después fue ingresado en el hospital después de haber expresado su preocupación de que su vecino lo envenenó. Durante la evaluación del hospital informó una sed intensa y demostró una paranoia notable, acompañada de alucinaciones auditivas y visuales.

Aunque no tenía una historia psiquiátrica previa, su estado mental se deterioró poco después de su admisión. El personal médico lo trató con líquidos, electrolitos y antipsicóticos. Después de un intento de escape, fue transferido a la unidad de psiquiatría intramural del hospital. Después de la recuperación, reveló síntomas adicionales que son consistentes con la bromidetoxicidad, incluida la fatiga, el insomnio y la sed extrema.

Este caso se publica en la revista Anales de casos clínicos de medicina internadonde los autores explicaron el estado del hombre como bromismo, causado por una exposición excesiva al bromuro. Los autores expresaron su preocupación por la información incorrecta generada por los sistemas de IA como ChatGPT, y enfatizaron el potencial de inexactitudes científicas y el riesgo de perpetuar información de salud incorrecta.

Openai, el desarrollador de ChatGPT, estipula explícitamente en sus términos de uso que la IA no está diseñada para diagnosticar o tratar problemas de salud. Sin embargo, un estudio en 2025 mostró que el 35% de los estadounidenses usan IA para obtener información sobre su salud y bien. La confianza en la IA parece ser relativamente alta, con una proporción significativa de usuarios que la encuentran más accesible que el asesoramiento de los trabajadores de la salud.

Los expertos en salud mental han pedido alarmas sobre el fenómeno conocido como ‘chatgpt -psicosis’, donde una participación extensa en los chatbots puede conducir a una seria necesidad psicológica. Los informes de comportamiento peligroso relacionados con las interacciones con IA han alentado a OpenAI a implementar medidas de protección para los usuarios.

El informe se concluye con un comentario de advertencia sobre las limitaciones de la IA en el contexto de la guía de salud, lo que sugiere que los expertos médicos de renombre probablemente no sugerirían un bromuro de sodio como reemplazo del cloruro de sodio en un contexto nutricional. Los eventos que rodean este caso sirven como un recuerdo sombrío de las posibles consecuencias de confiar en la inteligencia artificial para el asesoramiento médico.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí