Innovación Legal
14 marzo 2023
Avanza la regulación europea de la inteligencia artificial
Por Moisés Barrio
TWITTER @moisesbarrioa
La inteligencia artificial (IA), aunque en realidad debemos hablar de tecnologías incluidas en este supraconcepto, comprende según la definición propuesta por la OCDE en 2019 aquellos “sistemas basados en máquinas, capaces de influir en su entorno por medio de la producción de un resultado (como predicciones, recomendaciones o decisiones) para un conjunto determinado de objetivos.
Para ello, utiliza datos y entradas basados en máquinas y/o humanos para (i) percibir entornos reales y/o virtuales; (ii) abstraer estas percepciones en modelos mediante análisis de forma automatizada (por ejemplo, con aprendizaje automático), o manual; y (iii) utilizar la inferencia de modelos para formular opciones de resultados. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía”.
Como es sabido, la adopción de tales sistemas de inteligencia artificial tiene un gran potencial para aportar ingentes beneficios sociales y crecimiento económico, así como mejorar la innovación y la competitividad global de la Unión Europea. Al mismo tiempo, las características específicas de ciertos sistemas de IA suscitan creciente inquietud, especialmente en lo que se refiere a la seguridad y la protección de los derechos fundamentales de los ciudadanos.
En la UE se ha iniciado una reflexión sobre cómo abordar desde el Derecho tales preocupaciones. La Comisión Europea publicó en febrero de 2020 un Libro Blanco sobre la Inteligencia Artificial y propuso establecer un marco jurídico europeo para una IA digna de confianza. El Parlamento Europeo adoptó en octubre de 2020 tres resoluciones legislativas sobre IA que abarcan la ética, la responsabilidad civil y la propiedad intelectual, y pidió a la Comisión que estableciera un marco jurídico europeo completo y preparado para el desarrollo, despliegue y uso de la IA, la robótica y las tecnologías relacionadas.
En este contexto, la Comisión Europea presentó en abril de 2021 una propuesta de nuevo Reglamento europeo de Inteligencia Artificial (“Ley de IA”, aunque esta denominación no es técnicamente adecuada) . Entre sus objetivos, la Comisión propone consagrar en el Derecho de la Unión una definición tecnológicamente neutra de los sistemas de IA. La Comisión propone también adoptar un conjunto de normas proporcionadas adaptadas a un enfoque basado en el riesgo, con cuatro niveles de riesgo :
- Riesgo inaceptable de la IA. Se prohibirán los usos nocivos de la IA que contravengan los valores estructurales de la UE (como la puntuación social por parte de los Estados o las prácticas de manipulación subliminal de personas), debido al riesgo inaceptable que generan;
- IA de alto riesgo. Se consideran de alto riesgo una serie de sistemas de IA (enumerados en un anexo) que están creando un impacto adverso en la seguridad de las personas, la salud o en sus derechos fundamentales. Por ejemplo, los utilizados en la gestión y funcionamiento de infraestructuras esenciales, en la educación, el empleo y la carrera profesional o en la determinación del acceso y disfrute de servicios públicos y privados. Para garantizar la confianza y un nivel elevado y coherente de protección de la seguridad y los derechos fundamentales, el reglamento impone una serie de requisitos obligatorios a todos los sistemas de alto riesgo (incluida una evaluación de la conformidad y el establecimiento de sistemas de gestión de riesgo de todo el ciclo de vida de la aplicación);
- IA de riesgo limitado. Algunos sistemas de IA estarán sujetos a un conjunto limitado de obligaciones (básicamente, el reglamento introduce un principio de transparencia para advertir al usuario de su interacción con una máquina). En esta categoría de riesgo limitado entran los chatbots o robots conversacionales y los sistemas que permiten general o manipular imágenes, archivos de audio o vídeos que se asemejen notablemente a personas, lugares o sucesos (las ultrafalsificaciones o deep fakes);
- IA de riesgo mínimo. Todos los restantes sistemas de IA pueden desarrollarse y utilizarse en la UE sin más obligaciones jurídicas que la legislación vigente.
La propuesta está siendo debatida actualmente por los colegisladores, el Parlamento Europeo y el Consejo.
El 6 de diciembre de 2022, el Consejo adoptó su posición común (“orientación general”) sobre el Reglamento europeo de IA. El texto del Consejo, entre otras novedades:
- restringe la definición a los sistemas desarrollados mediante enfoques de aprendizaje automático y enfoques basados en la lógica y el conocimiento;
- amplía a los actores privados la prohibición de utilizar la IA con fines de puntuación social;
- añade una capa horizontal a la clasificación de alto riesgo para garantizar que no se incluyan los sistemas de IA que no puedan causar violaciones graves de los derechos fundamentales u otros riesgos significativos;
- aclara los requisitos imperativos para los sistemas de IA de alto riesgo;
- añade nuevas disposiciones para tener en cuenta las situaciones en las que los sistemas de IA pueden utilizarse para muchos fines diferentes (IA de uso general);
- aclara el ámbito de aplicación del reglamento (por ejemplo, exclusión expresa de la seguridad nacional, la defensa y los fines militares del ámbito de aplicación de la norma) y la mejora de las disposiciones relativas a las autoridades encargadas de hacer cumplir la regulación;
- simplifica el marco de cumplimiento del reglamento;
- añade nuevas disposiciones para aumentar la transparencia y permitir las reclamaciones de los usuarios;
- modifica sustancialmente las disposiciones relativas a las medidas de apoyo a la innovación (por ejemplo, los entornos de prueba o sandboxes).
Está previsto que este Reglamento europeo se apruebe a lo largo de 2023, convirtiéndose así en la primera norma jurídica de alcance mundial en la materia, y que aspira a tener el mismo impacto garantista que el Reglamento europeo de protección de datos (RGPD).