Un plan de acción recientemente presentado del gobierno de los Estados Unidos enfatiza la integración de la inteligencia artificial (IA) en diferentes funciones gubernamentales, un movimiento que es elogiado como esencial por los defensores de la ambiciosa «primera estrategia» del gobierno de Trump. Este plan, presentado el 23 de julio, muestra un compromiso considerable para usar tecnologías AI avanzadas en agencias federales.
En combinación con esta iniciativa, el Departamento de Defensa de los Estados Unidos ha otorgado $ 200 millones en contratos a varias compañías de tecnología líderes, incluidas Anthrope, Google, OpenAI y XAI. El XAI de Elon Musk en particular ha introducido ‘Grok para el gobierno’, lo que permite a las agencias federales comprar productos de IA a través de la Administración de Servicios Generales. Este desarrollo sigue meses de investigación con respecto al acceso del Ministerio de Eficiencia del Gobierno a información personal confidencial de diferentes departamentos federales, incluidos archivos de salud, datos fiscales y otra información protegida, con la intención de consolidar esto en una base de datos centralizada.
Sin embargo, los expertos aumentan las alarmas sobre los riesgos potenciales de privacidad y seguridad cibernética que se establecen mediante el uso de herramientas de IA para procesar datos confidenciales. En particular, en vista del hecho de que las precauciones existentes, como limitar el acceso a tipos de datos específicos, se relajan.
Para profundizar en estas implicaciones, se llevaron a cabo discusiones con Bo Li, un experto en seguridad de IA y seguridad de la Universidad de Illinois Urbana-Champaign y Jessica Ji, experta en seguridad cibernética y de seguridad cibernética en el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown. Sus ideas revelan riesgos significativos relacionados con el uso de modelos de IA en datos confidenciales.
Li enfatizó la fuga de datos como atención primaria y explicó que los modelos de IA pueden recordar involuntariamente información confidencial, lo que conduce a la posible exposición de datos personales cuando se solicite. Por ejemplo, un modelo que ha sido capacitado en la información del paciente puede revelar involuntariamente detalles sobre la salud de las personas cuando se le pregunta sobre la prevalencia de enfermedades.
Además, JI ha recopilado alarmas sobre los riesgos que están vinculados a la consolidación de diferentes conjuntos de datos. Al combinar diferentes fuentes en una sola base de datos, las organizaciones se convierten en objetivos más atractivos para los ciberdelincuentes, reduciendo su defensa contra posibles ataques. Las prácticas anteriores tienen datos confidenciales distantes, como archivos de salud, de información de identificación personal para reducir estos riesgos.
Cuando se le preguntó sobre posibles ataques cibernéticos que podrían surgir de estas vulnerabilidades, Li salió a varios modelos de ataque: ataques de membresía, ataques de inversión de modelos y ataques de robo son amenazas importantes que utilizan opciones de IA para revelar o reconstruir información privada.
Los expertos discutieron las nociones de asegurar modelos de IA con estrategias propuestas, como la implementación de barandillas para filtrar consultas de datos confidenciales o utilizar técnicas de «desaprender» para purificar información de los modelos. Sin embargo, notaron que estas medidas no eliminan los riesgos por completo. Los modelos Boerrail requieren mejoras continuas para mantener el ritmo de las amenazas en evolución, y el imperdujo puede poner en peligro el rendimiento general del modelo.
Recomendaciones para usar la IA al manejar datos del gobierno confidencial se centran en priorizar la seguridad y ajustar los procesos de gestión de riesgos para mantener el ritmo de la integración de las herramientas de IA. Tanto Li como JI criticaron la presión del personal en un nivel más bajo para implementar rápidamente estas tecnologías sin evaluar adecuadamente sus implicaciones más amplias.
En última instancia, subrayan la necesidad de utilizar medidas defensivas extensas, incluidos modelos de barandas y evaluaciones regulares de piratas informáticos, para navegar a través del panorama emergente de aplicaciones de IA en contextos gubernamentales. Además, JI señaló un riesgo orientado al proceso como resultado de una reducción del control organizacional, y enfatizó la importancia de determinar los límites para evitar que los empleados descubran inconscientemente descubriendo y al mismo tiempo utilizando herramientas de IA, especialmente en contextos comerciales.
A medida que avanza la integración de las tecnologías de IA dentro del gobierno de los Estados Unidos, los diálogos continuos entre expertos serán cruciales para garantizar que las razones de privacidad y seguridad se aborden suficientemente en medio del rápido progreso tecnológico.