Un incidente reciente con el modelo de IA de Google, Med-Gemini, tiene una gran preocupación sobre la confiabilidad de la IA en el diagnóstico médico. El modelo se refirió erróneamente al ‘ganglios basilar’, una parte inexistente del cerebro, en lugar del término correcto, ‘ganglios basales’, un área esencial que es responsable del control motor, el aprendizaje y el procesamiento emocional.
El error se observó en un trabajo de investigación de 2024 que describe las posibilidades de Med-Gemini, que está diseñada para analizar los datos de salud y hacer informes de radiología. A pesar de este considerable error, ni reconocieron ni el periódico, ni la publicación original del blog en la que Med-Gemini fue anunciado la confusión hasta que Bryan Moore lo notó, un neurólogo con experiencia en IA. Siga su advertencia a través de LinkedIn, Google realizó una adaptación sutil de la publicación del blog, corrigiendo el término pero manteniendo el error en el trabajo de investigación original.
Los expertos médicos han criticado esta supervisión y la consideran emblemáticamente para problemas más profundos dentro de la IA en la atención médica. Maulin Shah, directora de información médica del Sistema de Salud Providence, enfatizó que incluso pequeños errores de transcripción pueden tener implicaciones críticas en los escenarios médicos.
En respuesta a las preocupaciones, un portavoz de Google aclaró que el modelo ha identificado una desviación perdida, pero la fusión con un término incorrecto. La Compañía aseguró que las mejoras estén en marcha y enfatizó su dedicación a la transparencia con respecto a las restricciones de IA. Sin embargo, la falta de cambios significativos en el trabajo de investigación continúa haciendo investigación.
Med-Gemini es parte de una serie más amplia de modelos de IA destinados a mejorar el diagnóstico y la atención médica. Google lanzó este modelo con una expectativa considerable, para ilustrar el potencial de interpretar escaneos complejos y producir informes exhaustivos. Desde entonces, la introducción de Med-Gemini ha seguido una exploración de su aplicación del mundo real, porque el programa de probador de confianza comienza una fase de prueba más práctica.
A pesar de la promesa de IA, los riesgos relacionados con sus inexactitudes, conocidas como ‘alucinaciones’, siguen siendo inquietantes. Los profesionales médicos han notado diferentes reacciones de la IA cuando se les hace con preguntas algo diferentes, lo que lleva a inconsistencias que pueden engañar a los diagnósticos. La Dra. Judy Gichoya de la Universidad de Emory, por ejemplo, ilustró que las respuestas de la IA podrían ser completamente diferentes sobre la base de cómo se enmarcaba una pregunta, de modo que la confianza en estos sistemas se complicó aún más.
Los expertos enfatizan la necesidad de mantener estándares rigurosos para aplicaciones de IA en medicina. El Dr. Jonathan Chen de Stanford se refirió al estado actual de la IA de la salud como en un «momento umbral extraño», que enfatiza la necesidad de precaución, ya que las tecnologías se hacen cargo en la atención clínica. Afirmó que aunque la IA puede aumentar los trabajadores de la salud, debe cumplir con los estándares más altos que aquellos que generalmente son necesarios de las personas debido a los graves intereses involucrados en la atención médica.
Aunque el sector de la atención médica busca ansiosamente soluciones de IA, la industria debe encargarse de la complacencia como resultado de los propietarios de automatización, donde los usuarios pueden pasar por alto los errores debido a su confianza en la tecnología. Los expertos defienden un enfoque de cooperación, argumentan el papel de apoyo de la IA en el diagnóstico en lugar de reemplazar a un mayorista de juicio humano.
A medida que evoluciona el diálogo sobre la fiabilidad y el futuro de la IA en el cuidado de la salud, el incidente de Med-Gemini sirve como un recuerdo crucial de la necesidad de una investigación y vigilancia continuas para adoptar nuevas tecnologías en áreas críticas de la vida. El consenso general sigue siendo que, aunque la IA ofrece beneficios considerables, el potencial de errores requiere una integración cuidadosa y bien regulada en la práctica médica.