Cuando su hijo de 14 años se quitó la vida después de la interacción con los bots de chat de inteligencia artificial, Megan García cambió su dolor a acción.
El año pasado, la madre sugirió en el personaje de Florida. AI, una plataforma donde las personas pueden crear y comunicar personajes digitales que imiten a las personas reales y ficticias.
García afirmó en una demanda federal que los chatbots de la plataforma han dañado la salud mental de su hijo Sewell Setzer III y el Parque Menlo, California, la compañía no logró no lograrle informarle o ofrecer ayuda cuando expresó suicidio a estos personajes virtuales.
Ahora García apoya la legislación estatal destinada a proteger a los jóvenes de los chatbots «compañeros» que dice «están diseñados para involucrar a usuarios vulnerables en conversaciones románticas y sexuales inapropiadas» y «fomentar el auto -daños».
«Con el tiempo necesitamos un marco regulatorio extenso para abordar todos los daños, pero actualmente estoy agradecido de que California sea primordial al presentar este sitio», dijo García en una conferencia de prensa el martes antes de una audiencia en Sacramento para evaluar el proyecto de ley.
Prevención de suicidio y fondos para la guía de crisis
Si usted o alguien que conoce está luchando con pensamientos suicidas, busque ayuda con un profesional y llame al 9-8-8. El primer dígito de tres dígitos nacionales de tres dígitos de los Estados Unidos conectará la línea directa de la salud mental de la atención de salud mental 988 Celeras con asesores capacitados de atención de salud mental. Envíe un mensaje de texto «Inicio» al 741741 en los Estados Unidos y Canadá para llegar a la línea de texto de crisis.
A medida que las empresas van rápidamente para promover chatbots, padres, legisladores y defensa de los niños les preocupa que no haya suficientes garantías para proteger a los jóvenes contra los peligros potenciales de la tecnología.
Para abordar el problema, los legisladores presentaron un proyecto de ley para el cual los operadores de las plataformas complementarias de chatbot deben requerir recordar a los usuarios al menos cada tres horas que los personajes virtuales no son humanos. Las plataformas también deben tomar otros pasos, como la implementación de un protocolo para abordar ideas suicidas, suicidios o autocomplacientes que expresan los usuarios. Esto incluye mostrar a los usuarios de prevención de suicidios.
Según el Proyecto de Ley 243 del Senado, el operador de estas plataformas también informaría la cantidad de veces que un chatbot que lo acompaña ha realizado pensamientos o acciones suicidas con un usuario, junto con otros requisitos.
La legislación, que el Comité de Ciclismo del Senado ha publicado, es solo una forma en que las leyes estatales intentan abordar posibles riesgos de inteligencia artificial cuando los chatbots aumentan en la popularidad entre los jóvenes. Más de 20 millones de personas usan carácter cada mes. La IA y los usuarios han hecho millones de chatbots.
Las leyes dicen que el proyecto de ley podría convertirse en un modelo nacional para la protección de la IA y que algunos partidarios del proyecto de ley incluyen el grupo de KinderAdvocacy Common Sense Media y la Academia Americana de Pediatría, California.
«La innovación tecnológica es crucial, pero nuestros hijos no pueden usarse como conejillos de indias para probar la seguridad de los productos. El despliegue es alto», dijo el senador Steve Padilla (D-Chula Vista), uno de los legisladores que han introducido el proyecto de ley, al que asistieron García en el evento.
Pero la industria técnica y los grupos empresariales, incluidos Technet y la Cámara de Comercio de California, se oponen a la legislación y dicen que los legisladores «requisitos innecesarios y difíciles impondrían a los modelos de IA para fines generales». La Electronic Frontier Foundation, un grupo de derechos digitales sin fines de lucro con sede en San Francisco, dice que la legislación llama problemas en la Primera Enmienda.
«El gobierno probablemente tenga un interés convincente en prevenir el suicidio. Pero esta regulación no es muy personalizada o precisa», escribió Eff a los legisladores.
Karak.ai también apareció en la Primera Enmienda sobre la demanda de García. En enero, los abogados pidieron a un tribunal federal que rechazara el caso, que declaró que un hallazgo a favor de los padres violaría la ley constitucional de los usuarios sobre la libertad de expresión.
Chelsea Harrison, una portavoz del personaje.
«Siempre estamos trabajando para lograr ese equilibrio, al igual que muchas compañías que usan IA en toda la industria. Damos la bienvenida a trabajar con reguladores y legisladores al considerar la legislación para este espacio emergente», dijo en un comunicado.
Ella citó nuevas funciones de seguridad, incluida una herramienta con la que los padres pueden ver cuánto tiempo pasan sus adolescentes en la plataforma. La compañía también mencionó sus esfuerzos para moderar contenido potencialmente dañino y llevar a ciertos usuarios a la línea nacional de vida del suicidio y crisis.
Las compañías de redes sociales, incluida la empresa matriz de Snap y Facebook, Meta, también han lanzado AI Chatbots dentro de sus aplicaciones para competir con el ChatGPT de Openai, que usa personas para generar texto e imágenes. Aunque algunos usuarios han usado CHATGPT para obtener consejos o trabajo completo, algunos también han solido a estos chatbots para desempeñar el papel de un novio o amigo virtual.
Las leyes también luchan por definir el ‘chatbot acompañante’. Ciertas aplicaciones como Replika y Kindroid Markt sus servicios en el mercado como AI -BRANCH o AMIGOS DIGITALES. La factura no se aplica a los chatbots diseñados para el servicio al cliente.
Durante la conferencia de prensa, Padilla dijo que la legislación se centra en el diseño de productos que es «inherentemente peligroso» y está destinado a proteger a los menores.