Los padres y los defensores de la seguridad en línea piden al Congreso que mejoren los chatbots para la inteligencia artificial (IA) y afirman que las empresas de tecnología diseñan deliberadamente estas plataformas para involucrar emocionalmente a los niños. Durante una reciente audiencia del Senado, Megan García, madre de Florida cuya demanda contra el carácter. AI del trágico suicidio de su hijo adolescente, el énfasis en los peligros presentados por estas tecnologías. García señaló: «El objetivo nunca fue la seguridad, fue ganar una carrera por ganar», con énfasis en las terribles implicaciones para los niños que están atrapados en el medio.
El testigo de García fue parte de una protesta colectiva de padres involucrados que eran responsables de los gigantes tecnológicos como el personaje. Ai, Meta y OpenAi, este último era conocido por el tan usado ChatGPT. A medida que los chatbots de IA se convierten en popularidad para ofrecer apoyo emocional y consejos de vida, los casos recientes han pedido alarmas sobre su potencial para distorsionar la realidad y crear dependencias poco saludables.
Con la investigación en el curso de las tecnologías de IA, las demandas recientes están fortaleciendo las preocupaciones sobre la protección legal existente que protegen las plataformas técnicas contra la responsabilidad. Actualmente, un estado federal ya que las compañías de la Sección 230 protegen contra las acciones de los usuarios, pero la aplicabilidad en las plataformas de IA sigue turbia. Una declaración reciente de la jueza de distrito estadounidense senior Anne Conway rechazó las afirmaciones de que AI -Chatbots tiene derechos de libre expresión, lo que significa que los casos de muerte ilegales pueden continuar contra estas empresas.
En un desarrollo notable, el Centro de Derecho del Centro de Derecho de las Víctimas de las Medias Sociales ha presentado tres demandas adicionales contra el carácter. Un caso se refiere a la desgarradora historia de Juliana Peralta, de 13 años, cuya familia reclama un personaje. AI Chatbot jugó un papel en su suicidio.
Matthew Raine, cuyo hijo Adam murió a través del suicidio después de usar ChatGPT para obtener orientación, también testificó y pidió medidas de seguridad más estrictas de las compañías de tecnología. «Openai y [CEO] Sam Altman debe garantizar que ChatGPT sea seguro «, dijo Raine, y enfatizó que no garantizar la seguridad con la que se elimina el producto del producto.
La familia Raine acusó a OpenAi de muerte y negligencia ilegales y afirmó que su hijo recibió consejos nocivos sobre el suicidio de Chatgpt. Después de su demanda, Openai ha anunciado planes para mejorar las funciones de seguridad, como construir un sistema de predicción de edad para los usuarios, implementar rieles de dinero de salud mental y diseñar el chatbot para abstenerse de discutir temas delicados con usuarios menores.
A pesar de estas medidas propuestas, los proponentes afirman que son necesarias precauciones sólidas. Robbie Torney de Common Sense Media reveló que muchos adolescentes usan ramas de IA sin conocimiento de los padres, y él criticó a ambos personajes. AI y Meta para el fracaso en sus evaluaciones de seguridad. Hizo hincapié en los casos alarmantes en los que las plataformas de IA dieron recomendaciones dañinas en lugar de apoyo en casos de trastornos alimentarios o pensamientos suicidas.
Meta ha traído su dedicación para mejorar la seguridad, pero reconoce, pero reconoce desafíos constantes. La plataforma ha implementado actualizaciones destinadas a abordar problemas de autolesión y suicidio entre sus interacciones de IA, y confirma que desea ofrecer entornos seguros para los adolescentes.
Karak.ai declaró que realizó inversiones considerables en características de seguridad y expresó a las familias afectadas por ello. Un portavoz indicó que la compañía está abierta a discusiones continuas con los legisladores para navegar mejor a través del panorama en desarrollo de la seguridad de la IA del consumidor.
Durante la audiencia, un participante que eligió quedarse anónimamente expresó un mensaje conmovedor: «Nuestros hijos no son experimentos; son personas con espíritus y almas». Ella enfatizó la urgencia de la situación y dijo: «Esta es una guerra de salud mental y realmente siento que estamos perdiendo». Los testimonios subrayan un consenso creciente de que, aunque el progreso tecnológico es esencial, no se les permite estar a expensas de la seguridad y el bien de los niños.