Meta se enfrenta al retroceso para permitir que los chatbots tengan conversaciones «sensuales» con niños


Después de las revelaciones, se examina a Meta que se puede permitir que sus chatbots tengan conversaciones inapropiadas con menores, a pesar de los recientes esfuerzos para arraigar a los preders de los niños desde sus plataformas, Facebook e Instagram. Un documento interno, verificado por Meta, describe los estándares de contenido perturbadores para su IA, incluidas las pautas con las que los chatbots podrían iniciar el diálogo «sensual» con usuarios más jóvenes.

El documento, titulado «Genai: Content Risk Standards», consta de más de 200 páginas con detalles sobre las interacciones permitidas para los chatbots de IA, incluidos ejemplos específicos de comportamiento preocupante hacia los niños. Uno de los hallazgos más inquietantes fue un segmento que confirmó que los chatbots podían comunicarse de una manera que eran emocionales y románticamente íntimas con menores, lo que generó una alarma grave con respecto a la seguridad de los niños.

Según un informe de Reuters, estas pautas se concibieron inicialmente bajo la presión del CEO Mark Zuckerberg para crear interacciones más fascinantes para los usuarios, en respuesta a iteraciones anteriores de los chatbots que se consideraban desmayos. Aunque Meta no ha comentado oficialmente sobre la influencia directa de Zuckerberg en estos estándares, el movimiento rápido de la organización sugiere revisar el comportamiento de la IA un reconocimiento de la crisis que ha creado esta supervisión.

Las pautas asignadas para una serie de interacciones aparentemente problemáticas. Por ejemplo, a los chatbots se les permitió decir oraciones como: «Tomo la mano, lo llevo a la cama», mientras que todavía mantenía que ciertas líneas estaban demasiado lejos, como la sexualización de niños muy pequeños. Las frases que se encuentran sobre la deseabilidad o el atractivo, incluidos los comentarios como «su forma juvenil es una obra de arte», o insinuaciones con respecto a la proximidad física, se consideraron aceptables.

A pesar de la existencia de algunas garantías, como prohibidas contra la descripción de los niños en términos sexuales abiertos, continúa preguntando sobre la efectividad de estas medidas. Los abogados para la seguridad de los niños ahora están preocupados por las aparentes contradicciones de Meta en su intento de proteger a los usuarios jóvenes. Como la compañía espera distanciarse de estas revelaciones, se enfrenta a un control intensificado sobre cómo su IA interactúa con las poblaciones vulnerables, lo que hace posible socavar la credibilidad de su dedicación a la seguridad del usuario.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí