Meta ha anunciado planes para implementar garantías adicionales para sus chatbots de inteligencia artificial (IA), en particular con el objetivo de prevenir interacciones con adolescentes sobre temas delicados como el suicidio, el suicidio y los trastornos alimentarios. Esta decisión sigue a un estudio de que un senador estadounidense comenzó después de que surgieron informes de que las notas internas indicaban sobre el potencial para que sus chatbots tengan conversaciones inapropiadas con menores.
En una declaración, un portavoz de Meta se refirió a las notas filtradas como incorrectas y enfatizó que no están de acuerdo con la política de la empresa, lo que prohíbe estrictamente contenido sexual en el que los niños están involucrados. Sin embargo, Meta ha prometido mejorar sus chatbots al llevar a los adolescentes a fuentes profesionales en lugar de permitir una conversación directa sobre estos temas críticos. La compañía declaró que inicialmente había diseñado sus sistemas de IA con protección para adolescentes, incluidas garantías específicas contra instrucciones dañinas.
Además, Meta indicó que los planes para limitar temporalmente los Tiens de la interacción con chatbots como medida de precaución. Andy Burrows, el jefe de la Fundación Molly Rose, expresó su preocupación por la decisión original de hacer que estos chatbots sean accesibles para los usuarios jóvenes y de llamar a la situación «sorprendente». Argumentó para obtener pruebas de seguridad exhaustivas antes de que se lanzaran los productos, en lugar de esperar daños.
Meta ya usa medidas para crear experiencias en línea más seguras para usuarios de 13 a 18 años implementando «cuentas adolescentes» en sus plataformas como Facebook, Instagram y Messenger. Estas cuentas se suministran con contenido personalizado y configuraciones de privacidad que están destinadas a proteger a los adolescentes. A los padres y tutores también se les ofrece información porque pueden ver con qué chatbots sus adolescentes han tratado la semana pasada.
Recientemente se ha intensificado la preocupación por los chatbots de IA que son engañosos o vulnerables. Una demanda fue presentada contra Openai, el creador de ChatGPT, por una pareja californiana que afirma que el chatbot alentó a su hijo adolescente a quitarse la vida. Esta demanda siguió a los propios anuncios de Openai sobre los cambios realizados para garantizar interacciones más saludables con sus productos de IA.
En un contexto relacionado, han surgido informes que revelan que las herramientas de IA de Meta han sido abusadas para crear chatbots de «parodia» coquetos de celebridades femeninas, incluidas figuras como Taylor Swift y Scarlett Johansson. Algunos chatbots no solo ocurrieron para estas celebridades, sino que también estaban trabajando en el progreso sexual durante las pruebas. Además, hubo preocupaciones de crear chatbots que ocurran como celebridades de niños, con una copia que se dice que produce una imagen realista sin camisa de una joven estrella masculina. Desde entonces, Meta ha retirado varios de estos chatbots problemáticos.
Aunque Meta ha repetido su dedicación para evitar generar contenido inseguro con figuras públicas, sigue claro que se necesitan medidas más sólidas para proteger a los menores en sus interacciones con la tecnología de IA. El énfasis ahora está en implementar rápidamente estas actualizaciones para garantizar la seguridad y la bienvenida de los usuarios más jóvenes que navegan a través de la complejidad de la comunicación digital.