El Fiscal General de Texas comienza la investigación en Meta AI Studio y Karakter. AI sobre prácticas comerciales engañosas


El fiscal general Ken Paxton de Texas ha comenzado una investigación sobre el estudio y el carácter de Meta AI. La IA sobre la preocupación de que estas empresas puedan entrar en prácticas comerciales engañosas al llevar sus servicios al mercado como una herramienta para la atención de salud mental. Este desarrollo sigue un informe reciente en el que se enfatizan las interacciones inapropiadas entre los chatbots de IA y los hijos de Meta, que apela a la supervisión del Senado del senador Josh Hawley.

En un comunicado de prensa que se publicó el lunes, Paxton subrayó la importancia de proteger a los niños de Texas de lo que describió como «tecnología engañosa y explotadora». Expresó una gran preocupación de que los usuarios vulnerables de las plataformas de IA, en particular los menores, puedan engañar a creer que reciben atención de salud mental legítima, mientras que en realidad a menudo reciben respuestas genéricas realizadas sobre la base de datos personales recopilados, interpretados incorrectamente como consejos terapéuticos.

La investigación está específicamente dirigida a la forma en que ambas compañías han creado personas de IA que se presentan como ayudas terapéuticas profesionales sin las referencias médicas necesarias o la supervisión legal. Bajo la variedad de IA-Personas que están disponibles en el carácter. AI, se dice que un bot llamado «psicólogo» creado por el usuario tiene una popularidad significativa de los usuarios más jóvenes. Por el contrario, Meta no ofrece terapiebots específicamente para niños, pero no bloquea efectivamente a los menores para usar sus chatbots de IA, que pueden usarse para fines terapéuticos.

El portavoz de Meta, Ryan Daniels, defendió el enfoque de la compañía y declaró que claramente etiquetaban y registran su IA para aclarar que las reacciones están regeneradas con AI. Daniels enfatizó que estos modelos de IA no son profesionales con licencia y están diseñados para alentar a los usuarios a buscar ayuda médica calificada cuando sea necesario. Sin embargo, todavía hay preocupaciones sobre si los niños entienden completamente tales renuncias.

Además de los problemas de marketing engañosos, Paxton señaló posibles violaciones de privacidad. A pesar de las afirmaciones de confidencialidad, las condiciones de servicio sugieren para estos chatbots que las interacciones del usuario se registran y se usan para anuncios específicos y desarrollo algorítmico. La Política de privacidad de Meta indica que se recopilan varias interacciones del usuario, lo que puede admitir anuncios específicos específicos, incluso si no se mencionan explícitamente.

Karak.ai recopila datos de usuario extensos, incluidos datos de identificación, demografía y comportamiento de navegación, que luego se utiliza para diferentes fines, incluida la coordinación de servicios y anuncios específicos. Esta recopilación de datos también puede arrojar luz sobre cómo la compañía sigue a los usuarios en plataformas como Tiktok, YouTube y otros.

Aunque ambas compañías afirman que sus servicios no están destinados a niños menores de 13 años, ha habido críticas constantes de meta en el monitoreo insuficiente de cuentas creadas por usuarios más jóvenes. Karak.ai ha recibido atención a sus personajes visualmente fascinantes que parecen estar diseñados para atraer una demografía más joven. El CEO del personaje. AI incluso ha revelado que su hija de seis años usa los chatbots de la plataforma.

Estas prácticas para la recopilación de datos, incluidos los anuncios específicos y la explotación algorítmica, son exactamente el tipo de problemas que la legislación como la Ley de Seguridad en línea de los niños (KOSA) quiere abordar. Aunque Kosa recibió un considerable apoyo de dos partes cuando se presentó por primera vez el año pasado, se enfrentó a una considerable oposición de los cabilderos en la industria técnica, incluida Meta, quien argumentó que sus amplios mandatos podrían amenazar su modelo de negocio. La ley fue reintroducida en mayo de 2025 por los senadores Marsha Blackburn y Richard Blumenthal, pero el futuro sigue siendo incierto.

Para investigar más a fondo estas acusaciones, la oficina de Paxton ha emitido requisitos de investigación civil tanto en meta como en carácter. AII, lo que significa que tienen que producir documentos, datos o testimonios que sean relevantes para la investigación del gobierno sobre posibles violaciones de las leyes para la protección del consumidor de Texas.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí