El Staatsenator de California, Scott Wiener, introdujo nuevos cambios en su Bill SB 53 con el objetivo de mejorar los requisitos de transparencia para una gran inteligencia artificial (IA). Esta legislación quiere que los desarrolladores de IA líderes, incluidos gigantes industriales como OpenAI, Google, Anthrope y XAI, publiquen protocolos de seguridad y para emitir informes sobre los incidentes de seguridad que ocurran.
Si se determina, California sería el primer estado en implementar estándares de transparencia sólidos para los desarrolladores de IA. El senador Wiener se encontró previamente con obstáculos con un proyecto de ley similar, SB 1047, que también solicitó a los desarrolladores de modelos de IA que anunciaran para informes de seguridad. El proyecto de ley se enfrentó a la ávida oposición de Silicon Valley y finalmente se convirtió en veto por el gobernador Gavin Newsom. Después, el gobernador nombró a un grupo de expertos e investigadores de IA, incluido el conocido científico de Stanford Fei Fei Li, para establecer objetivos de política que se centran en la seguridad de la IA dentro del estado.
Recientemente, el Grupo de Política de AI de California publicó amplias recomendaciones que enfatizan la importancia de aumentar la transparencia de la industria sobre sus sistemas. El senador Wiener indicó que las revisiones de SB 53 estaban formadas considerablemente por estas recomendaciones. Expresó su dedicación para colaborar con diferentes partes interesadas para refinar la propuesta en leyes efectivas y científicamente saludables.
El objetivo del senador Wiener es lograr un equilibrio que faltaba en SB 1047, con el cual apuntó a reglas de transparencia significativas, al tiempo que promueve el rápido crecimiento del sector de la IA de California. Nathan Calvin, vicepresidente de asuntos estatales para el Código de Organización de Seguridad de Ai sin fines de lucro, enfatizó la necesidad de que las compañías de IA revelen su límite de riesgo como fundamental para la confianza del público.
La legislación propuesta también incluye medidas de protección para denunciantes de los laboratorios de IA que identifican tecnologías que representan un «riesgo crítico» para la sociedad. Esto incluye tecnologías relacionadas con un daño potencial considerable, definidos en el proyecto de ley como contribuyendo a la muerte o lesión de más de 100 personas o resulta en un daño de más de $ 1 mil millones.
Además, SB 53 quiere configurar CalCompute, un clúster de computación en la nube pública que está destinado a apoyar a las nuevas empresas e investigadores en el desarrollo de tecnologías de IA a gran escala. Después de los nuevos cambios, el proyecto de ley se planificará para el Comité de la Asamblea del Estado de California sobre privacidad y protección del consumidor para su aprobación. Si está sancionado, pasará por obstáculos legislativos adicionales antes de llegar a la oficina del gobernador.
En la costa opuesta, la gobernadora Kathy Hochul en Nueva York invierte una legislación similar que se conoce como la Ley elevada, que también tiene la intención de mantener a los grandes desarrolladores de IA responsables de los informes de seguridad.
Mientras que el destino de SB 53 y la Ley de aumento parecían inciertos para una moratoria federal de 10 años sobre la regulación de la IA diseñada a nivel estatal para evitar un panorama fragmentado de la propuesta de leyes de IA fue rechazada por el Senado con un estado decisivo de 99-1 en julio.
Geoff Ralston, el ex presidente de Y Combinator, enfatizó que garantizar el desarrollo seguro de la IA no debería ser un tema de discusión. Pidió un liderazgo federal más fuerte en la demanda de responsabilidad de las empresas de IA, y señaló que los estados deberían tomar la iniciativa sin una acción federal sustancial. Elogió a SB 53 como una demostración de liderazgo bien estructurada a nivel estatal en esta área crítica.
A pesar de las continuas discusiones sobre los mandatos de transparencia, muchas compañías de IA continúan dudando en adoptar estas medidas regulatorias. Anthrope ha mostrado apoyo para una mayor transparencia y ha pronunciado un cuidadoso optimismo con respecto a las recomendaciones del Grupo de Política de AI en California. Empresas como OpenAi, Google y Meta, por otro lado, han mostrado más resistencia.
Si bien los desarrolladores de IA líderes publican informes de seguridad de rutina para sus modelos, la consistencia ha disminuido en los últimos meses. Google en particular eligió posponer la publicación de un informe de seguridad para su modelo AI avanzado, Gemini 2.5 Pro, a meses después del lanzamiento, y recordar a OpenAi de publicar un informe de seguridad para su modelo GPT-4.1. Un estudio independiente posterior emitió preocupación sobre la coordinación de este modelo en comparación con sus predecesores.
En general, SB 53 representa un enfoque más moderado para las regulaciones de seguridad de IA, con el potencial de obligar a las compañías de IA a mejorar sus prácticas de transparencia. Mientras se desarrolla el proceso legislativo, las acciones del senador Wiener y sus partidarios serán seguidas de cerca por ambos expertos de la industria y del público.