La nueva directiva de IA de Trump requiere que las empresas de tecnología demuestren que sus chatbots no «se despiertan»


Las empresas de tecnología que desean vender sus tecnologías de inteligencia artificial (IA) al gobierno federal se han encontrado un nuevo desafío regulatorio. Como parte de las recientes iniciativas del presidente Donald Trump para fortalecer el liderazgo tecnológico estadounidense y evitar la influencia de China en la IA, una orden ejecutiva de que las empresas deben demostrar que sus chatbots no están «despiertos». Este plan, presentado en una estrategia más amplia para garantizar el cumplimiento de los valores estadounidenses en aplicaciones de IA, enfatiza el comportamiento de los sistemas de IA en particular.

La Orden Ejecutiva, titulada ‘Prevención de AI Woke en el gobierno federal’, se centra en limitar lo que etiqueta como ideologías ‘destructivas’ en modelos de IA, incluidos conceptos vinculados a la diversidad, la equidad y la inclusión (DEI), como la teoría crítica de las carreras y el racismo sistémico. Si bien las empresas de tecnología navegan a través de este nuevo panorama, se enfrentan a una presión considerable para revisar sus prácticas, encontrar un equilibrio entre el cumplimiento de las expectativas del gobierno y mantener sus obligaciones anteriores de abordar los prejuicios en la tecnología de IA.

Los principales proveedores de IA, incluidos Gemini y Copilot de Google de Microsoft, se han detenido en gran medida sobre las implicaciones de esta guía, a pesar del potencial para reformar las reglas de compra. Los proponentes de los derechos civiles, como Alejandra Montoya-Boyer del Centro de Derechos Civiles y Tecnología de la Conferencia de Liderazgo, indican que este mandato puede revertir años de progreso al abordar los prejuicios que los sistemas de IA generalmente absorben de los enormes conjuntos de datos en los que están capacitados. Montoya-Boyer enfatizó: «No existe tal cosa como AI AI. Hay tecnología de IA que discrimina y luego hay tecnología de IA que realmente funciona para todas las personas».

La imprevisibilidad inherente asociada con los modelos de IA hace que sea difícil cumplir con este orden. Debido a que los sistemas de IA están capacitados en una amplia gama de datos de Internet, pueden reflejar involuntariamente los prejuicios humanos. Como señaló el antiguo funcionario de la administración Biden Jim Secreto, «los modelos de idiomas grandes reflejan los datos sobre los que están capacitados, incluidas todas las contradicciones y prejuicios en el lenguaje humano,» lo que hace que sea extraordinariamente complejo que las empresas se adapten a las nuevas directrices.

La orden tiene la intención de influir en el comportamiento de la IA al alentar a las empresas a anunciar medidas de política internas al guiar las interacciones de chatbot, en lugar de obligar a los filtros específicos relacionados con los del gobierno chino, que regula el contenido rigurosamente. Los críticos afirman que esto muestra un enfoque compulsivo, por el cual las empresas auto -censifican para permanecer favorables a los ojos de los compradores federales. Secreto comparó esto con un esfuerzo impulsado por el estado para suprimir diferentes puntos de vista, aunque por medidas menos abiertas que en China.

Las respuestas de las compañías de tecnología con respecto al orden son mixtas. Operai expresó la intención de buscar aclaraciones, en la convicción de que sus iniciativas ya están de acuerdo con las nuevas pautas. Los grandes jugadores como Microsoft y Xai, fundados por Elon Musk, han elogiado la política de IA más amplia de Trump, pero no han hecho ningún comentario detallado sobre los posibles efectos de la orden de orden anti-Wok. Otras compañías, incluidas Google y Meta, no estaban disponibles para comentarios inmediatos.

Subyacente a las pautas hay una historia que ha tomado forma en ciertos derechos que inclinan a las personas y grupos dentro del sector tecnológico, lo que refleja quejas contra empresas como Google para los prejuicios ideológicos observados. El capitalista de riesgo de alta moda, Marc Andreessen, criticó públicamente a los recientes desarrollos de IA, quienes afirman que los prejuicios deliberados se basan en decisiones técnicas en grandes empresas de tecnología.

Con las herramientas de IA que ya son parte integral de las actividades gubernamentales, el camino a seguir sigue siendo incierto tanto para las agencias federales que utilizan estas tecnologías como para las empresas a cargo de desarrollarlas. A medida que evoluciona el paisaje, es probable que las implicaciones más amplias de estos cambios legales se arruinen a través de la industria técnica y más allá, de modo que se evocan los debates actuales sobre el sesgo, la transparencia y la influencia ideológica en la inteligencia artificial.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí