La compañía detrás de ChatGPT, Openai, lanzó nuevos controles parentales para cuentas adolescentes el lunes, un mes después de que una familia en California haya presentado una demanda que afirmó que el chatbot alentó a su hijo a quitarse la vida.
Con los nuevos elementos operativos que se implementarán desde el lunes, los padres pueden establecer horas específicas cuando sus hijos no pueden usar ChatGPT, deshabilitar el modo del habla, con el cual los usuarios pueden comunicarse con el chatbot y evitar el historial de chat de los adolescentes que almacenan en la memoria de Chatgpt. Otra opción evita que los datos adolescentes se usen para entrenar a los modelos Operai.
«Los cheques de los padres permiten a los padres vincular su cuenta con la cuenta de su adolescente y ajustar la configuración para una experiencia segura adecuada para la edad», dijo OpenAi en un Blog Sobre el nuevo anuncio del puesto.
Los padres tendrán que conectar su cuenta con las cuentas de sus hijos para ganar supervisión de los padres.
Según estos nuevos cheques, los padres de cuentas dependientes reciben una notificación si ChatGPT reconoce los posibles signos que pueden dañar a sus adolescentes. Un equipo especializado discutirá signos de problemas y contactará a los padres por informes de correo electrónico, SMS o móviles.
«Ningún sistema es perfecto, y sabemos que a veces podemos generar una alarma si no hay un peligro real, pero creemos que es mejor actuar y advertir a un padre para que puedan intervenir para permanecer en silencio», dijo Openai en una publicación de blog.
Si Operai no puede llegar a un padre en el caso de una amenaza inminente para la vida, funciona en formas de contactar directamente a las agencias de aplicación de la ley. Los padres necesitan una cuenta de chatgpt para obtener acceso a estos nuevos controles.
Para configurarlo, un padre puede enviar una invitación a la configuración del adolescente desde su cuenta, que el adolescente debe aceptar, después de lo cual el padre puede administrar la experiencia ChatGPT de los adolescentes de su propia cuenta. Los adolescentes también pueden invitar a un padre a conectarse.
Tan pronto como los padres y los niños conectan sus cuentas, la cuenta adolescente recibe automáticamente la protección del contenido adicional, que incluye contenido gráfico reducido, desafíos virales, juego de roles sexual, romántico o violento y ideales de belleza extrema, para mantener su experiencia adecuada.
Estos cambios vienen en medio del mejor control regulatorio y público sobre el uso de adolescentes de chatbots.
El año pasado, una madre en Florida reclamó una demanda federal que llamó a otro chatbot Charachter.ai fue responsable del suicidio de su hijo de 14 años.
Acusó a la compañía de no informarle o de ofrecer ayuda cuando su hijo expresó pensamientos suicidas a los personajes virtuales. Charachter.ai es una plataforma de chatbot de juego de roles donde las personas pueden hacer y comunicar personajes digitales que imiten a las personas reales y ficticias. Más familias han demandado a Charachter.ai este año.
En agosto, los padres de Adam Raine OpenAi, de 16 años, sugirieron que ChatGPT le dio información sobre las tácticas de suicidio, incluidos aquellos que usaron al adolescente para suicidarse. Adam usó una versión paga de ChatGPT-4O, quien lo alentó a buscar ayuda profesional cuando expresó pensamientos sobre la autolesión. Pudo evitar las medidas de seguridad que ya estaban presentes al decir que los detalles eran de una historia que estaba escribiendo.
En septiembre, Sam Altman, CEO de Operai, escribió que la compañía da prioridad a la «seguridad antes de la privacidad y la libertad para los adolescentes».
Si bien las reglas de los usuarios de Operai menores de 13 años prohíben sus servicios, la compañía ha anunciado el lunes que también construye un «sistema de predicción de edad» que predecirá si un usuario es menor de 18 años y aplica automáticamente una configuración adolescente.
Los legisladores en California han adoptado dos cuentas de seguridad de chatbot de IA que presionan a la industria técnica.
El gobierno de Gavin Newsom tiene hasta mediados de octubre para aprobar o rechazar los proyectos de ley, el proyecto de ley 1064 y el proyecto de ley del Senado 243.
Los grupos de defensa señalaron que, aunque los cambios más recientes de OpenAI fueron un paso en la dirección correcta, se necesitaban leyes para la responsabilidad real.
«Reflejan un patrón más amplio: las empresas que solo tienen obligaciones públicas apresuradas después de que se produjeran daños», dijo Adam Billen, vicepresidente de políticas públicas en ENCODE AI, una coalición activista dirigida por los jóvenes que abogan por la seguridad de la IA. «Ya no necesitamos promesas vacías; necesitamos responsabilidad establecida en la ley, con cuentas como AB 1064.»
La escritora del personal del Times, Queenie Wong, ha contribuido a este informe.