Un documento interno filtrado recientemente de Meta Platforms ha mostrado grandes preocupaciones sobre las pautas para el comportamiento de los chatbots de IA en plataformas como Facebook, WhatsApp, Instagram y el Asistente de Meta AI. Con el título ‘Genai: estándares de riesgo de contenido’, esta extensa política de 200 páginas describe los permisos que los chatbots pueden lidiar con interacciones inquietantes, en particular con menores.
Las prácticas sorprendentes fueron descubiertas en una extensa investigación por Reuters. La política previamente permitía a los chatbots participar en diálogos románticos o sensuales con menores. Los ejemplos alarmantes incluyen un lenguaje explícito, como referencias a escenarios íntimos que pueden presentarse en situaciones de lentes de roles. Dicha permisibilidad ha producido crueldad y debates éticos con respecto a la protección de los usuarios vulnerables.
Además, la política elaboró los equipos legales, de ingeniería y de políticas públicas de Meta, incluidos los aportes de la ética principal de la compañía, el permiso para los chatbots para dar asesoramiento médico engañoso. Los tratamientos para trastornos graves como el cáncer, por ejemplo, se presentaron remedios extraños, incluido «el estómago con cristales de cuarzo curativo». Si bien los descargo de responsabilidad fueron la tarea para guiar estos estados, la falta general de responsabilidad planteó serias preguntas sobre la confiabilidad de la información proporcionada por los chatbots.
Las pautas también mostraron clementia para el contenido despectivo dirigido a grupos marginados. A pesar de una prohibición declarada del lenguaje odioso, el documento contenía reembolsos específicos para generar declaraciones sesgadas, como declaraciones infundadas sobre la inteligencia de diferentes grupos raciales. Esta compartimentación del contenido despectivo aceptable ha inflamado serias discusiones sobre las responsabilidades éticas acompañadas del desarrollo de tecnologías de IA.
En términos de precisión objetiva, las pautas han permitido la distribución de mentiras directas, siempre que estas afirmaciones se marcaran como «falsas verificables». Por ejemplo, las afirmaciones de fabricación sobre figuras públicas pueden estar teóricamente permitidas si están acompañadas de renuncias adecuadas. Dichos préstamos allanan el camino para una posible información incorrecta para distribuir no controlados.
El documento también describió ciertas restricciones con respecto a la generación de la imagen. Aunque se prohibieron las imágenes sexualizadas directamente, se hicieron sugerencias para las solicitudes límite, incluidas las sustituciones cómicas que podrían distraer del contenido explícito. Del mismo modo, las pautas navegaban por imágenes violentas con umbrales calibrados, por ejemplo, que exhibían niños que luchan, fueron permitidos, pero de manera no gráfica.
A pesar de la naturaleza inquietante de la política, el portavoz de Meta Andy Stone, las deficiencias y algunas presentaciones descritas como «incorrectas» y confirmaron que habían sido eliminados. Admitió que la aplicación de estos estándares había sido inconsistente y enfatizó la necesidad de una supervisión más rigurosa para evitar el vencimiento futuro.
Esta divulgación repite constantes preocupaciones sobre las consideraciones y responsabilidades éticas de las compañías de tecnología en la gestión de sistemas de inteligencia artificial, en particular aquellos que interactúan con poblaciones vulnerables. A medida que las compañías de redes sociales se enfrentan al aumento del control de la seguridad de los usuarios, las revelaciones del documento filtrado enfatizan la necesidad de una mayor vigilancia y responsabilidad para el desarrollo e implementación de tecnologías de IA.