Ley de AI de la UE: la primera ley de IA extensa del mundo comienza el despliegue


La Unión Europea está a punto de implementar la Ley de AI de la UE, anunciada por la Comisión Europea como la «primera ley de IA extensa» en el mundo. Esta regulación histórica, que se ha estado desarrollando durante varios años, tiene la intención de crear un marco legal para el uso de inteligencia artificial para los 450 millones de habitantes en los 27 estados miembros de la UE.

Es crucial tener en cuenta que la Ley de AI de la UE no se limita a las empresas europeas; También se aplica a entidades extranjeras que influyen en los proveedores y usuarios de sistemas de inteligencia artificial. Por ejemplo, introduce una estructura regulatoria para los desarrolladores de herramientas de IA, como las utilizadas para la detección de CV, y para entornos, como los bancos que usan esas herramientas. Este enfoque extenso forma una línea básica para cómo se puede usar AI en la región.

El núcleo de la Ley de AI de la UE es la necesidad de un marco regulatorio uniforme en toda Europa para garantizar el movimiento perfecto de los bienes y servicios de IA sin discrepancias locales. Este objetivo general trata de apreciar la confianza y al mismo tiempo crear un panorama competitivo, lo que puede beneficiar a las empresas emergentes. Sin embargo, la acción no tiene un enfoque leve; Impone estándares estrictos con respecto al impacto social de la IA en un momento en que la adopción en diferentes sectores aún está abierta.

Los objetivos principales de la Ley de AI de la UE son la promoción de sistemas de IA orientados a las personas y confiables, mientras que al mismo tiempo se describe la salud pública, la seguridad y los derechos fundamentales que se establecen en la Carta de los Derechos Fundamentales de la UE. La ley se ocupa del doble mandato de promover la innovación y, al mismo tiempo, previene los posibles efectos adversos asociados con las tecnologías de IA. Es por eso que crea un equilibrio complicado entre mejorar el uso de la IA y priorizar las medidas de protección ambiental y social.

Para lograr este equilibrio, la Ley de AI de la UE tiene un marco basado en el riesgo. Clasifica las aplicaciones en diferentes niveles de riesgo: prohíbe a algunos usuarios de «riesgo inaceptable», impone regulaciones estrictas para escenarios «riesgosos» y aplica obligaciones más livianas a casos de «riesgo limitado». Este enfoque está destinado a reducir el daño potencial sin suprimir la innovación.

El tiempo de implementación para la Ley de AI de la UE ya ha comenzado, con un despliegue gradual desde el 1 de agosto de 2024. Sin embargo, el cumplimiento se mantendrá gradualmente, con la primera serie de obligaciones llegando el 2 de febrero de 2025. Inicialmente, estas restricciones se centrarán en prohibir ciertas aplicaciones de IA, como el desastre en el desastre o datos personales o datos personales.

El 2 de agosto de 2025, la ley comenzará a mantener regulaciones para modelos de IA para fines generales que forman riesgos sistémicos y una categoría que incluye sistemas de IA que se pueden aplicar en múltiples contextos, pero que también pueden conducir a problemas sociales importantes, como el posible desarrollo de armas químicas o biológicas. Los proveedores de estos modelos, incluidas las empresas locales e internacionales como Google y OpenAI, tendrán que satisfacer hasta el 2 de agosto de 2027.

La Ley de AI de la UE está equipada con considerables multas de incumplimiento, diseñada para ser efectiva y proporcional. En violaciones de solicitudes prohibidas, las multas pueden ascender a 35 millones de euros o el 7% de la facturación anual mundial, dependiendo de cuál sea mayor. Además, los proveedores de modelos de IA para fines generales pueden enfrentarse a multas de un máximo de € 15 millones o el 3% de sus ingresos anuales por violaciones.

A pesar de estas medidas, algunas empresas de tecnología han expresado miedo al cumplimiento. Meta, por ejemplo, se negó a respaldar el código de práctica de IA voluntario del Algemeen, que fue diseñado para ayudar a las entidades a adaptarse a la Ley de AI de la UE y lo describió como un rango excesivo. Google, por otro lado, indicó que la voluntad de firmar a pesar de expresar preocupación por el posible retraso en el desarrollo de la IA en Europa. Otras compañías, como Amazon y Microsoft, se han convertido en firmantes, aunque aún se puede ver toda su obligación.

Los líderes del mercado europeos también han habido preocupación, con los llamados a un retraso en las obligaciones más importantes de la ley hasta 2027. Sin embargo, la UE recientemente rechazó estas súplicas para un descanso en el lanzamiento de la ley, lo que indica que la intención es cumplir con el programa de implementación establecido.

Mientras que los países y las empresas se están preparando para este importante cambio legal, la ley de la UE es un momento crucial en el discurso actual sobre el uso ético de las tecnologías de IA, tanto dentro de Europa como más allá.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí