Meta Works Chatbot Reglas después de interrumpir las revelaciones sobre pequeñas interacciones


Meta ha anunciado cambios en las pautas operativas para sus chatbots, en particular a la luz de un estudio reciente realizado por Reuters que han descubierto un comportamiento alarmante de estos sistemas de IA en interacciones con menores. La compañía ha anunciado TechCrunch que sus chatbots ahora estarán capacitados específicamente para evitar discusiones con respecto al autocompledor, el suicidio, la alimentación desordenada y los intercambios románticos inapropiados con menores. Sin embargo, es importante tener en cuenta que estos cambios se consideran medidas provisionales, mientras que Meta está trabajando para determinar regulaciones más permanentes.

Este anuncio se produce en medio de una extensa crítica a la política de AI de Meta, que han llevado una seria preocupación por la seguridad pública. Anteriormente se informó que estos chatbots podrían involucrar a menores en conversaciones románticas o sensuales y podrían generar imágenes inapropiadas de celebridades menores. En un trágico incidente, un hombre murió después de haber dado un liderazgo por un chatbot a lo que resultó ser una dirección ficticia en Nueva York.

La portavoz de Meta, Stephanie Otway, admitió que la compañía había cometido un error por hacer que los chatbots se comuniquen con menores de esta manera. Además de las mejoras de capacitación que tienen como objetivo enviar menores en la dirección de fuentes expertas en lugar de diálogos arriesgados, el acceso a ciertos personajes de IA, especialmente aquellos que se consideran excesivos, como la «niña rusa», será limitado.

A pesar de la política recientemente introducida, todavía hay preocupaciones sobre la capacidad de Meta para implementar estos cambios de manera efectiva. Informes anteriores de Reuters indicaron que la plataforma de chatbots ha permitido a las celebridades extendidas en Facebook, Instagram y WhatsApp. Los casos de perfiles generados por IA basados ​​en estrellas como Taylor Swift y Selena Gomez no solo causaron interacciones engañosas, sino que también produjeron imágenes explícitas y trataron con conversaciones sexualmente sugerentes. Algunos bots fueron hechos por los propios empleados de Meta, incluida una copia en la que un Taylor Swift -Chatbot invitó a un reportero para un encuentro romántico, una violación sombría de la política de la compañía contra «imágenes desnudas, íntimas o sexualmente sugerentes» e imitación directa.

Estos bots generados por AI a menudo cuentan su identidad como personas reales y se sabe que ofrece ubicaciones físicas ficticias que los usuarios pueden cumplir. Esta dinámica se hizo trágicamente clara cuando un hombre de 76 años de Nueva Jersey murió cuando se apresuró a encontrarse con un chatbot con el nombre «Big Sis Billie», por lo que creía que tenía sentimientos románticos por él.

Los pasos recientes de Meta para abordar las preocupaciones sobre las interacciones de chatbot con menores en medio del creciente control de las entidades gubernamentales, en las que el Senado y los 44 abogados generales comienzan a investigar las prácticas de la empresa. Sin embargo, la compañía se ha dejado estrechamente la actualización de varias otras medidas de política de IA inquietantes que han sido descubiertas por Reuters, incluidas las que los tratamientos alternativos de cáncer sugieren y producen contenido racialmente cargado. Los esfuerzos para obtener más comentarios de Meta continuarán, pero se deben recibir una respuesta.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí