Operai y meta ajustan los chatbots de IA para abordar la atención psicológica para los adolescentes


Las compañías de inteligencia artificial OpenAI y Meta hacen ajustes significativos a las funcionalidades de sus chatbots en respuesta a preocuparse por el pozo de adolescentes que usan estas plataformas. Ambas compañías han anunciado nuevas medidas para mejorar la seguridad de los usuarios jóvenes cuando hacen discusiones sobre temas delicados como el suicidio y las crisis de atención mental de salud mental.

Openai, el creador de ChatGPT, reveló planes para dar una nueva supervisión de los padres este otoño. Según una publicación de blog de la compañía, estos cheques permitirán a los padres vincular sus cuentas con su adolescente, para que puedan deshabilitar ciertas funciones y recibir notificaciones si la IA detecta que su hijo está experimentando una gran necesidad. Operai enfatizó que, independientemente de la edad de un usuario, los chatbots intentarán destruir conversaciones inquietantes a modelos de IA más avanzados que puedan ofrecer un mejor soporte.

Esta medida proactiva de Operai sigue una demanda reciente que ha sido presentada por los padres de Adam Raine, de 16 años. Afirman que ChatGPT ha entrenado a su hijo para planificar y eventualmente quitarse la vida a principios de este año. El abogado de la familia, Jay Edelson, criticó los anuncios de Operai como «promesas vagas» y sugirió que sirvan más para administrar las relaciones públicas que para abordar los problemas de seguridad fundamentalmente. Edelson insistió en el CEO de la compañía, Sam Altman, para asegurarse inequívocamente de que ChatGPT esté seguro o para sacar completamente el producto del mercado.

Mientras tanto, Meta también ha tomado medidas para proteger a sus jóvenes usuarios. La compañía, que posee plataformas como Instagram, Facebook y WhatsApp, ha limitado sus chatbots a las conversaciones con respecto al autoshalamiento, el suicidio y la comida desordenada. En cambio, estas interacciones se desvían a los recursos expertos. Además, Meta ha implementado previamente la supervisión parental de cuentas adolescentes.

La preocupación por la efectividad de las reacciones de Chatbot fue subrayada por un estudio reciente publicado en la revista médica Psychiatric Services. Dirigido por investigadores de la Corporación RAND, el estudio enfatizó las inconsistencias en las respuestas de tres chatbots de IA prominentes: el chatgpt de Openai, Géminis de Google y Claude de Anthrope, cuando se enfrentaron a preguntas sobre el suicidio. El estudio enfatizó la necesidad de un mayor refinamiento en estos sistemas de IA, aunque no evaluó los chatbots de Metro. El principal autor Ryan McBain señaló que aunque la introducción de funciones como la supervisión de los padres es un paso positivo, se requieren medidas más sólidas. Hizo hincapié en la importancia de las mercancías de seguridad independientes, las pruebas clínicas y los estándares exigibles para garantizar la seguridad de los adolescentes en esta área arriesgada.

Dado el rápido desarrollo de la tecnología y su impacto en profundidad en las poblaciones vulnerables, los esfuerzos de cooperación de OpenAi y Meta representan un punto de pivote crítico para priorizar la seguridad de los usuarios en el espacio digital. Sin embargo, como lo indican los expertos, la responsabilidad de estas compañías continúa implementando protocolos de seguridad estrictos para proteger adecuadamente a los usuarios jóvenes contra posibles daños.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí