Borrador de la ley europea sobre inteligencia artificial
Europa toma medidas drásticas
La amplia ley europea sobre inteligencia artificial avanzó decisivamente hacia su aprobación.
Novedades: Después de años de debate, los representantes de los poderes legislativo y ejecutivo de la Unión Europea acordaron sobre un borrador de la Ley de IA, un enfoque integral para regular la IA. Cuando la sesión legislativa llegó a su fin, los representantes negociaron casi sin parar para aprobar el proyecto de ley antes de la fecha límite. Volverá al parlamento europeo y a los países miembros para su aprobación final en la primavera de 2024 y entrará en vigor aproximadamente dos años después.
Cómo funciona: El marco limita los usos de la IA que se consideran especialmente riesgosos. Los acuerdos de última hora aligeraron las cargas para las pequeñas empresas y el desarrollo de código abierto. Incluye las siguientes disposiciones:
- La Ley de IA no se aplica a (i) sistemas destinados únicamente a la investigación, (ii) sistemas fuera del ámbito de la legislación de la UE, como los ejércitos y aparatos de seguridad de los estados miembros, y (iii) organismos encargados de hacer cumplir la ley. Los desarrolladores de modelos gratuitos y de código abierto están exentos de algunos requisitos como se especifica a continuación.
- El proyecto de ley prohíbe ciertas aplicaciones de IA en circunstancias particulares, incluida la vigilancia policial predictiva, la extracción de imágenes faciales sin un objetivo específico, el reconocimiento de emociones en lugares de trabajo o escuelas, la calificación de la confiabilidad o la posición social de las personas para determinar el riesgo de incumplimiento o fraude, y el uso de datos biométricos. datos para inferir información demográfica sensible como religión u orientación sexual.
- Los sistemas de inteligencia artificial utilizados en áreas designadas de alto riesgo, como la identificación biométrica, el control fronterizo, la educación, el empleo, la infraestructura, la justicia y los servicios públicos, enfrentan un escrutinio especial. Los desarrolladores deben realizar evaluaciones de seguridad y proporcionar pruebas detalladas de seguridad. La carga es algo más ligera para las pequeñas y medianas empresas, cuyas tarifas son proporcionales a su tamaño y cuota de mercado. Las pequeñas y medianas empresas también tienen acceso a los llamados “sandboxes regulatorios”, entornos de implementación en los que los costos regulatorios se eliminan por completo a cambio de una mayor supervisión.
- Los desarrolladores de inteligencia artificial de propósito general (GPAI), definida como modelos que pueden usarse para muchas tareas diferentes, deben informar los procedimientos y datos que utilizaron para entrenar sus modelos. Los modelos gratuitos y de código abierto están exentos de estos requisitos. Todos los modelos deben cumplir con las leyes de derechos de autor de la UE.
- Antes de estar ampliamente disponibles, los modelos GPAI que plantean “riesgos sistémicos” deben informar el consumo de energía, ajustar los datos, los riesgos, las pruebas de seguridad y los incidentes de seguridad. (No está claro qué distingue a un modelo que plantea “riesgos sistémicos” de uno que no los presenta). Los modelos gratuitos y de código abierto no están exentos de estos requisitos.
- Todos los medios generados por IA deben estar claramente etiquetados.
- El proyecto de ley establece multas multimillonarias para las empresas que violen sus términos. Las nuevas empresas y las pequeñas empresas deberán pagar multas menores por infracciones.
- Una nueva Oficina de IA dentro del poder ejecutivo de la UE supervisará los modelos GPAI y creará estándares y prácticas de prueba. Un panel independiente de científicos asesorará a la Oficina de IA. Una Junta de AI compuesta por representantes de cada estado miembro de la UE asesorará a la Oficina de AI y transmitirá sus decisiones a los estados miembros.
Qué sigue: Los representantes han coincidido en estos grandes rasgos, pero seguirán revisando los detalles. Después de una investigación más exhaustiva, el Parlamento Europeo volverá a votar y un consejo de diputados de cada estado miembro de la UE también votará, muy probablemente a principios de 2024. Ambos organismos aprueban el proyecto de ley, que entrará en vigor a más tardar en 2026.
Detrás de la noticia: La Ley de IA ha estado en construcción desde 2021. La tecnología ha evolucionado significativamente desde entonces y la propuesta ha sido objeto de varias revisiones para mantener el ritmo. La llegada de ChatGPT provocó una ronda de revisiones para controlar los modelos básicos. Las negociaciones alcanzaron un punto álgido a finales de diciembre. Francia, Alemania e Italia, buscando proteger a los desarrolladores en sus países, buscaron debilitar las restricciones a los modelos de fundaciones. España se opuso a ellas, que buscó fortalecer la supervisión de los modelos de fundaciones más poderosos. Las negociaciones finales se referían a excepciones para el uso policial y militar de IA dentro de los estados miembros. Francia lideró un grupo de países que presionaron para obtener mayores exenciones militares.
Por qué es importante: La Ley de IA es el esfuerzo más amplio y detallado para regular la IA hasta la fecha. Hay mucho en juego: Europa no sólo tiene una incipiente industria de IA propia, sino que las leyes de la UE a menudo dictan las prácticas de las empresas fuera de la unión. Sin embargo, el proyecto de ley no entrará en vigor hasta dentro de años, cuando la IA puede presentar desafíos muy diferentes.
Qúe pensamos sobre esto: Una regulación eficaz debería mitigar los daños sin sofocar la innovación. El mejor enfoque es regular las aplicaciones en lugar de la tecnología subyacente, como los modelos básicos. Si bien la UE restringe algunas aplicaciones de maneras útiles, también limita la tecnología fundamental de maneras que esperamos que perjudiquen la innovación en los estados miembros de la UE. Acogemos con satisfacción las disposiciones añadidas en el último momento para aligerar la carga de las pequeñas empresas y los desarrolladores de código abierto. Estos triunfos de última hora reflejan los esfuerzos de muchas personas que presionaron para proteger la innovación y la apertura.
Fuente: Deeplearning.ai – 13 de diciembre, 2023