De un informe reciente del Future of Life Institute (FLI), una organización prominente que se centra en la seguridad de la IA, revela que las compañías de inteligencia artificial no están preparadas sobre las posibles consecuencias para el desarrollo de sistemas con habilidades cognitivas a nivel humano. El informe emitió preocupaciones alarmantes, lo que indica que ninguna de las compañías que fueron evaluadas en su índice de seguridad de IA lograron un puntaje más alto que AD en el área crítica de «planificación de seguridad existencial».
El término inteligencia general artificial (AGI) se usa para describir un nivel teórico de capacidades de IA donde los sistemas pueden realizar cualquier tarea intelectual a nivel humano. OpenAI, la organización detrás del popular modelo de IA CHATGPT, ha sido garantizar que los desarrollos AGI beneficien a toda la humanidad. Sin embargo, los proponentes de seguridad han dado advertencias de que AGI podría conducir a peligros existenciales, incluidos escenarios en los que tales sistemas van más allá del control humano, lo que puede dar lugar a eventos catastróficos.
Los resultados del FLI subrayan lo que llamó un desacoplamiento fundamental dentro de la industria de la IA. El informe declaró: «La industria no está preparada fundamentalmente para sus propios objetivos declarados. Las empresas afirman que alcanzarán la inteligencia general artificial (AGI) dentro de la década, pero nadie obtuvo una puntuación anterior en la planificación existencial de la seguridad». El índice evalúa ampliamente a siete desarrolladores de IA, a saber, Google Deepmind, OpenAi, Anthrope, Meta, XAI, y Zhipu AI y DeepSeek de China, en seis estadísticas importantes, incluidos el «daño actual» y la «seguridad existencial».
Entre las compañías calificadas, Anthrope logró el puntaje general más alto en C+, seguido de cerca por OpenAi en C y Google Deepmind en C-. Estos puntajes revelan una tendencia relevante de medidas de seguridad insuficientes dentro de la industria, de modo que se realiza más investigaciones.
Saferai, otra organización sin fines de lucro que se centra en la seguridad de la IA, advirtió de la misma manera que las empresas de IA avanzadas «debilitan las prácticas de gestión de riesgos muy débiles», como una adición a la serie de informes sobre el tema. Los grados de seguridad del FLI fueron determinados y examinados por un panel de especialistas en el campo de la IA, incluido el científico informático británico Stuart Russell y Seha Revanur, la fundadora del grupo de regulación de la IA, Justice.
Max Tegmark, cofundador de la FLI y profesor del Instituto de Tecnología de Massachusetts, expresó una seria preocupación basada en los hallazgos. Señaló sobre la sombría realidad de que las compañías líderes de IA van al desarrollo de sistemas súper inteligentes sin presentar planes bien definidos para abordar las posibles consecuencias. Tegmark utilizó una analogía sorprendente, en la que se comparó la situación con la construcción de una planta de energía nuclear sustancial en un entorno urbano bullicioso sin ninguna estrategia para reducir un colapso potencial.
Hizo hincapié en el rápido progreso en la tecnología de IA y enfatizó que las expectativas con respecto a la línea de tiempo para abordar los desafíos AGI se han cambiado drásticamente. Anteriormente, los expertos creían que habría décadas para abordar estos problemas, pero las propias compañías indicaron que los desarrollos importantes podrían llegar dentro de unos pocos años. Las impresionantes posibilidades de los nuevos modelos de IA, como Grok 4 de Xai y Gemini 2.5 y VEO3 de Google, se notaron como ejemplos de este equipo.
En respuesta al informe FLI, un representante de Google Deepmind afirmó que la evaluación no incluyó completamente todos los esfuerzos de la organización con respecto a la seguridad y seguridad de la organización de IA. Hicieron hincapié en que sus protocolos de seguridad se extienden mucho más de lo que refleja el informe. Otras compañías, incluidas OpenAI, Anthrope, Meta, Xai, Zhipu Ai y Deepseek, también han sido invitadas a comentar sobre los hallazgos.