top of page
Foto del escritorCCJ

Ley de IA de la UE: primera normativa sobre inteligencia artificial




El uso de la inteligencia artificial en la UE estará regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo


Reglamento de Inteligencia Artificial: el Consejo y el Parlamento alcanzan un acuerdo sobre las primeras normas del mundo en materia de inteligencia artificial


El proyecto de Reglamento tiene por objeto garantizar que los sistemas de inteligencia artificial (IA) introducidos en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. Esta histórica propuesta también tiene por objeto estimular la inversión y la innovación en el ámbito de la IA en Europa.


La IA es una iniciativa legislativa emblemática que tiene el potencial de fomentar el desarrollo y la adopción de una IA segura y fiable en todo el mercado único de la UE, tanto por parte de los agentes públicos como de los privados. La idea principal es regular la IA en la medida que esta tenga la capacidad de dañar a la sociedad, siguiendo un enfoque basado en los riesgos: a mayor riesgo, normas más estrictas. Al ser la primera propuesta legislativa de este tipo en el mundo, puede establecer un referente mundial para regular la IA en otras jurisdicciones, como hizo el Reglamento General de Protección de Datos (RGPD), promoviendo así el enfoque europeo de la regulación tecnológica en la escena mundial.


Principales elementos del acuerdo provisional

En comparación con la propuesta inicial de la Comisión, los principales nuevos elementos del acuerdo provisional pueden resumirse en lo siguiente:


  • normas sobre modelos de IA de uso general de gran impacto que pueden causar un riesgo sistémico en el futuro, así como sobre los sistemas de IA de alto riesgo;

  • un sistema revisado de gobernanza con algunas competencias de ejecución a escala de la UE;

  • ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades policiales en espacios públicos, con sujeción a salvaguardias;

  • una mejor protección de los derechos mediante la obligación de que los implementadores de sistemas de IA de alto riesgo lleven a cabo una evaluación del impacto en los derechos fundamentales antes de poner en marcha un sistema de IA.


En términos más concretos, el acuerdo provisional abarca los siguientes aspectos:


Definiciones y ámbito de aplicación

Para garantizar que la definición de sistema de IA establezca unos criterios suficientemente claros para distinguir la IA de los sistemas de software más sencillos, el acuerdo transaccional armoniza la definición con el enfoque propuesto por la OCDE.


El acuerdo provisional también aclara que el Reglamento no se aplica a ámbitos fuera del ámbito de aplicación del Derecho de la UE y que, en cualquier caso, no debe afectar a las competencias de los Estados miembros en materia de seguridad nacional ni a ninguna entidad a la que se hayan encomendado tareas en este ámbito. Además, la el Reglamento de IA no se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa. Del mismo modo, el acuerdo establece que el Reglamento no se aplicará a los sistemas de IA utilizados únicamente con fines de investigación e innovación, ni a las personas que utilicen la IA por motivos no profesionales.



Clasificación de los sistemas de IA como de alto riesgo y prácticas prohibidas de IA

El acuerdo transaccional establece unos criterios horizontales de protección, en particular una clasificación de sistemas de alto riesgo, con el fin de garantizar que no se incluyan en dicha clasificación sistemas de IA que probablemente no acarrearán violaciones graves de los derechos fundamentales ni otros riesgos considerables. Los sistemas de IA que solo tienen un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves, como por ejemplo la divulgación de que el contenido se hubiera generado mediante IA, de modo que los usuarios puedan tomar decisiones fundadas sobre su uso posterior.


Se autorizaría una extensa variedad de sistemas de IA con riesgo alto, aunque supeditándolos a una serie de requisitos y obligaciones para acceder al mercado de la UE. Los colegisladores han aclarado y precisado dichos requisitos de manera que sean más viables desde el punto de vista técnico y supongan una carga menor para las partes interesadas, por ejemplo, en lo que respecta a la calidad de los datos o a la documentación técnica que deben elaborar las pymes para demostrar que sus sistemas de IA de alto riesgo cumplen los requisitos establecidos.


Dado que los sistemas de IA se desarrollan y distribuyen mediante cadenas de valor complejas, el texto transaccional incluye cambios que aclaran la asignación de responsabilidades y las funciones de los distintos agentes de dichas cadenas, en particular los proveedores y los usuarios de sistemas de IA. Asimismo, aclara la relación entre las obligaciones establecidas en virtud del Reglamento de Inteligencia Artificial y las obligaciones ya vigentes en virtud de otros actos legislativos, como la legislación pertinente en materia de protección de datos o la legislación sectorial de la UE.

Algunos usos de la inteligencia artificial entrañan riesgos que se consideran inaceptables, por lo que su uso en la UE quedará prohibido. El acuerdo provisional prohíbe, por ejemplo, la manipulación cognitiva conductual, el rastreo indiscriminado de imágenes faciales sacadas de internet o de circuitos cerrados de televisión, el reconocimiento de emociones en los lugares de trabajo y en las instituciones de enseñanza, la puntuación ciudadana, la categorización biométrica para deducir datos sensibles, como la orientación sexual o las creencias religiosas, y algunos casos de vigilancia policial predictiva de personas.


Excepciones en el ámbito policial

Teniendo en cuenta las particularidades de las autoridades policiales y la necesidad de preservar su capacidad para utilizar la IA en sus labores esenciales, se acordaron varias modificaciones en la propuesta de la Comisión en relación con el uso de sistemas de IA con fines policiales. Estas modificaciones, que están sujetas a las salvaguardias oportunas, tienen por objeto reflejar la necesidad de respetar la confidencialidad de los datos operativos delicados relativos a sus actividades. Por ejemplo, se ha introducido un procedimiento de emergencia que permite a los organismos policiales desplegar en caso de urgencia una herramienta de IA de alto riesgo que no haya superado el procedimiento de evaluación de la conformidad. Sin embargo, también se ha introducido un mecanismo específico para asegurar que los derechos fundamentales estén suficientemente protegidos frente a cualquier posible uso indebido de los sistemas de IA.


Además, por lo que respecta al uso de sistemas de identificación biométrica remota «en tiempo real en espacios de acceso público, el acuerdo transaccional aclara los objetivos para cuya consecución dicho uso es estrictamente necesario con fines de aplicación de la ley y a qué autoridades encargadas de la aplicación de la ley se les debe, por tanto, permitir excepcionalmente el uso de dichos sistemas. El acuerdo transaccional establece salvaguardias adicionales y limita estas excepciones a los casos de víctimas de determinados delitos, de prevención de amenazas reales, presentes o previsibles, como los atentados terroristas, y de búsqueda de personas sospechosas de los delitos más graves.


Sistemas de IA de uso general y modelos fundacionales

Se han añadido nuevas disposiciones para tener en cuenta aquellas situaciones en las que los sistemas de IA pueden utilizarse con muchos fines diferentes (IA de uso general) y aquellas en las que la tecnología de IA de uso general se integra posteriormente en otro sistema de alto riesgo. El acuerdo provisional también aborda los casos específicos de los sistemas de IA de uso general.


También se han acordado normas específicas para los modelos fundacionales, sistemas de gran magnitud capaces de realizar de manera competente una amplia gama de tareas diferenciadas, como la generación de vídeo, texto e imágenes, la conversión en lenguaje lateral, la informática o la generación de códigos informáticos. El acuerdo provisional establece que los modelos fundacionales deben cumplir obligaciones específicas en materia de transparencia antes de ser introducidos en el mercado. Se ha introducido un régimen más estricto para los modelos fundacionales de «gran impacto». Se trata de modelos fundacionales entrenados con gran cantidad de datos y con una complejidad y capacidades avanzados y unos resultados muy superiores a la media, que pueden difundir riesgos sistémicos a lo largo de la cadena de valor.


Una nueva estructura de gobernanza

A raíz de las nuevas normas sobre IA de uso general y la evidente necesidad de garantizar el cumplimiento de estas normas a escala de la UE, se crea una oficina de IA en la Comisión, que se encarga de supervisar estos modelos de IA más avanzados, de contribuir a fomentar las normas y las prácticas de ensayo y de garantizar el cumplimiento de las normas comunes en todos los Estados miembros. Un panel científico de expertos independientes asesorará a la oficina de IA sobre los modelos de la IA de uso general, contribuyendo al desarrollo de metodologías para evaluar las capacidades de los modelos fundacionales, asesorando en lo que se refiere a la designación y la aparición de modelos fundacionales de gran impacto y supervisando los posibles riesgos materiales de seguridad relacionados con los modelos fundacionales.


El Comité de IA, que estaría compuesto por representantes de los Estados miembros, seguirá siendo una plataforma de coordinación y un órgano consultivo de la Comisión y otorgará un papel importante a los Estados miembros en la aplicación del Reglamento, en particular en lo que se refiere al diseño de códigos de buenas prácticas para modelos fundacionales. Por último, se creará un foro consultivo para las partes interesadas, como los representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico, para aportar conocimientos técnicos al Comité de IA.


Sanciones

Las multas por infracciones del Reglamento de Inteligencia Artificial se han fijado como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o un importe predeterminado, si este fuera superior. Estas se elevarían a 35 millones de euros, es decir, el 7 % por las infracciones de aplicaciones de IA prohibidas, 15 millones de euros o el 3 % por el incumplimiento de las obligaciones del Reglamento de Inteligencia Artificial y 7,5 millones de euros o el 1,5 % por la presentación de información inexacta. Sin embargo, el acuerdo provisional establece límites más proporcionados a las multas administrativas que pueden imponerse a las pymes y las empresas emergentes en caso de infracción de las disposiciones del Reglamento de Inteligencia Artificial.

El acuerdo transaccional también deja claro que una persona física o jurídica puede presentar una reclamación ante la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento del Reglamento de Inteligencia Artificial y esperar que dicha reclamación se tramite de conformidad con los procedimientos específicos de dicha autoridad.


Transparencia y protección de los derechos fundamentales

El acuerdo provisional establece una evaluación del impacto en los derechos fundamentales antes de que un sistema de IA de alto riesgo sea introducido en el mercado por sus implementadores. El acuerdo provisional también prevé un refuerzo de la transparencia en relación con el uso de sistemas de IA de alto riesgo. Concretamente, se han modificado algunas de las disposiciones de la propuesta de la Comisión para indicar que determinados usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE de sistemas de IA de alto riesgo. Además, las nuevas disposiciones hacen hincapié en la obligación de los usuarios de un sistema de reconocimiento de emociones de informar a las personas físicas a las que se exponga a un sistema de este tipo.


Medidas de apoyo a la innovación

Con vistas a crear un marco jurídico más favorable a la innovación y a promover un aprendizaje reglamentario basado en pruebas, se han modificado sustancialmente, respecto de la propuesta de la Comisión, las disposiciones relativas a las medidas de apoyo a la innovación.

En particular, se ha aclarado que los espacios controlados de pruebas para la IA, cuya finalidad es ofrecer un entorno controlado para desarrollar, probar y validar sistemas innovadores de IA, también deben permitir probar sistemas innovadores de IA en condiciones reales. Además, se han añadido nuevas disposiciones que permiten llevar a cabo pruebasen condiciones reales de los sistemas de IA, siempre que se cumplan determinadas condiciones y se ofrezcan determinadas garantías. Con el fin de aliviar la carga administrativa de las empresas más pequeñas, el acuerdo provisional incluye una lista de las acciones que se deben emprender para ayudar a dichos operadores, y prevé algunas excepciones limitadas y claramente especificadas.



Entrada en vigor

El acuerdo provisional establece que el Reglamento de Inteligencia Artificial debe aplicarse dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.


Comments


bottom of page