“Aprobada la primera ley de inteligencia artificial en el mundo”, “La UE aprueba la primera ley de inteligencia artificial del mundo”, “Así es la nueva ley de la UE sobre la IA: pionera en el mundo”.
En la era de la constante hiperconectividad, cientos de titulares como estos han inundado las primeras páginas de los medios de comunicación a lo largo de las últimas semanas, y anuncian que una ley UE de inteligencia artificial ha sido aprobada, pero ¿en qué punto del camino nos encontramos?
En primer lugar, la Unión Europea no aprueba leyes, aprueba Reglamentos, pero no solo eso. El proceso legislativo europeo es, cuanto menos, complicado, y, después de 36 horas de intensas negociaciones entre el Parlamento Europeo y el Consejo de la UE -los llamados trílogos- el viernes pasado se alcanzó un acuerdo sobre el documento denominado “Political Agreement”, que da oficialmente el pistoletazo de salida al procedimiento legislativo ’formal’. ¿Y ahora qué?
El Political Agreement -texto que, de momento, no es público-, deberá seguir siendo trabajado a nivel técnico, para que, así, la Presidencia española del Consejo pueda presentar un texto más pulido a los representantes de los Estados Miembros para su aprobación. Una vez aprobado, el texto definitivo será confirmado por el Parlamento y el Consejo, y sometido a una revisión lingüística antes de su adopción formal por éstos, y así ser publicado posteriormente en el Diario Oficial de la Unión Europea. ¿Cuándo ocurrirá esto? Todavía no podemos conocer una fecha exacta, pero sí estimar que sucederá a lo largo de los primeros seis meses del próximo año.
Pese a ello, y sin duda, estamos cada vez más cerca de conocer el texto definitivo del Reglamento UE sobre Inteligencia Artificial, la primera norma que promete convertirse, no solo en un estándar técnico-legal, sino en estándar moral, combinando para ello regulación, responsabilidad y sostenibilidad.
¿Cuáles son las medidas propuestas para conseguirlo? El Political Agreement establece prohibiciones y obligaciones en función de su potencial riesgo y de su nivel de impacto:
Sistemas de IA prohibidos y excepciones
Se propone prohibir aquellos sistemas de IA que supongan una amenaza potencial para los derechos de los ciudadanos y el sistema democrático. Uno de los puntos más polémicos del Political Agreement, que además supuso el retraso en las negociaciones entre Parlamento y Consejo, fue cómo regular el uso de sistemas de categorización biométrica, como, por ejemplo, las cámaras de reconocimiento facial en espacios públicos. Estos sistemas categorizan a las personas en función de sus rasgos faciales, gestos y comportamiento, y pueden incurrir en errores, sobre todo con minorías étnicas. Por ello, se propone prohibir el uso de sistemas de categorización biométrica en espacios públicos excepto para identificar a víctimas de secuestros o tráfico sexual, así como en casos de amenaza terrorista ‘genuina’.
También se ha propuesto la prohibición de aquellos sistemas de reconocimiento de emociones en empresas y escuelas, aquellos que puedan manipular el comportamiento humano, ¿y? aquellos que sean utilizados para explotar las vulnerabilidades de las personas.
Obligaciones para sistemas IA de alto riesgo
Los sistemas de IA de alto riesgo deberán ser sometidos a una evaluación obligatoria sobre su potencial impacto sobre los Derechos Fundamentales. Del mismo modo, se habilitará un cauce para que los ciudadanos puedan presentar reclamaciones sobre los sistemas de IA, y se reforzarán las obligaciones de transparencia.
Modelos fundacionales
Los modelos fundacionales, subyacentes a otros sistemas de IA, como la generativa, deberán cumplir con requisitos de transparencia, por ejemplo, la elaboración de documentación técnica, el cumplimiento y respeto de la legislación UE sobre derechos de propiedad intelectual, y la difusión de resúmenes detallados sobre los contenidos utilizados en la fase de entrenamiento del modelo fundacional.
Medidas de apoyo a la innovación y a las PYMEs
El Political Agreement acuerda habilitar a las autoridades nacionales de los Estados Miembros para crear entornos controlados de prueba en los que desarrollar y entrenar la IA antes de que sea comercializada. De hecho, España, a través de su Estrategia Nacional de Inteligencia Nacional, ya ha puesto en marcha su entorno controlado de pruebas para sistemas de IA.
Sanciones
Se propone que el incumplimiento del futuro Reglamento UE sobre Inteligencia Artificial pueda dar lugar a multas que oscilen entre 35 y 7,5 millones de euros , o entre el 7% y el 1,5% del volumen de negocio global, en función del incumplimiento de que se trate, y del tamaño de la empresa.
Con todo, y aunque tengamos que ser pacientes durante unos meses más para ver el resultado final, parece que estos últimos avances cambiarán el rumbo del desarrollo tecnológico para futuras generaciones. Stay tuned…
Recent comments