Los legisladores en California se acercaron un paso más el martes a la colocación de más barandillas en torno a chatbots artificiales basados en inteligencia.
El Senado aprobó un proyecto de ley que tiene como objetivo hacer chatbots que se usen de manera más segura para la compañía después de que los padres habían expresado su preocupación de que los personajes virtuales dañen la salud mental de sus hijos.
La legislación, que ahora está en camino a la Asamblea del Estado de California, muestra cómo las leyes estatales están abordando la preocupación por la seguridad de la IA si las empresas de tecnología liberan más herramientas impulsadas por la IA.
«El país está mirando una vez más a California», dijo el senador Steve Padilla (D-Chula Vista), uno de los legisladores que introdujo el proyecto de ley en el piso del Senado.
Al mismo tiempo, los legisladores intentan preocuparse de que puedan obstaculizar la innovación. Los grupos que están en contra del proyecto de ley, como la Fundación Electronic Frontier, dicen que la legislación es demasiado amplia y encontraría la libre expresión de acuerdo con un análisis del proyecto de ley del Senado.
Según el Proyecto de Ley 243 del Senado, los operadores de las plataformas de chatbot complementarias recordarían a los usuarios al menos cada tres horas que los personajes virtuales no son humanos. También revelarían que los chatbots que acompañan pueden no ser adecuados para algunos menores.
Las plataformas también deben tomar otros pasos, como la implementación de un protocolo para abordar ideas suicidas, suicidios o autocomplacientes que expresan los usuarios. Esto incluye mostrar a los usuarios de prevención de suicidios.
Prevención de suicidio y fondos para la guía de crisis
Si usted o alguien que conoce está luchando con pensamientos suicidas, busque ayuda con un profesional y llame al 9-8-8. El primer dígito de tres dígitos nacionales de tres dígitos de los Estados Unidos conectará la línea directa de la salud mental de la atención de salud mental 988 Celeras con asesores capacitados de atención de salud mental. Envíe un mensaje de texto «Inicio» al 741741 en los Estados Unidos y Canadá para llegar a la línea de texto de crisis.
El operador de estas plataformas también informaría la cantidad de veces que un chatbot que lo acompaña ha realizado pensamientos o acciones suicidas con un usuario, junto con otros requisitos.
La Dra. Akilah Weber Pierson, una de las coautores del proyecto de ley, dijo que apoya la innovación, pero también debe venir con «responsabilidad ética». Los chatbots, dijo el senador, fueron diseñados para mantener la atención de las personas, incluidos los niños.
«Cuando un niño comienza a comunicarse con la IA sobre las relaciones humanas reales, eso es muy preocupante», dijo el senador Weber Pierson (D-La Mesa).
La cuenta define los chatbots asociados, como los sistemas AI que pueden satisfacer las necesidades sociales de los usuarios. Excluye los chatbots que las empresas usan para el servicio al cliente.
La legislación recibió el apoyo de los padres que perdieron a sus hijos después de que comenzaron a charlar con chatbots. Uno de esos padres es Megan García, una madre de Florida que ha demandado a Google y Karakter. AI después de que su hijo Sewell Setzer III murió el año pasado debido al suicidio.
En el caso judicial, ella afirma que los chatbots de la plataforma han dañado la salud mental de su hijo y no lograron informarle u ofrecerle ayuda cuando expresó suicidio a estos personajes virtuales.
El personaje.Ai, ubicado en Menlo Park, California, es una plataforma donde las personas pueden crear y comunicar personajes digitales que imiten a las personas reales y ficticias. La compañía ha dicho que la seguridad adolescente se toma en serio y ha lanzado una posición que brinda a los padres más información sobre la cantidad de tiempo que sus hijos pasan con chatbots en la plataforma.
Karak.ai pidió a un tribunal federal que rechazara la demanda, pero un juez federal en mayo permitió que el caso continuara.