El pasado 11 de marzo de 2025, el Consejo de Ministros aprobó un anteproyecto de ley con la voluntad de marcar un antes y un después en la regulación de la inteligencia artificial en España. Se trata de una norma que, además de adaptar la legislación española al Reglamento Europeo de IA, introduce medidas propias con el objetivo de garantizar un uso ético, inclusivo y seguro de esta tecnología. Incidiendo en el enfoque de la legislación europea, basado en el riesgo y clasificando las aplicaciones de IA según su impacto potencial, la propuesta del Gobierno busca ir un paso más allá. Para ello, plantea iniciativas específicas como la obligación de etiquetar contenidos generados por IA, la creación de entornos regulados de pruebas (los “sandbox”) y la incorporación de un derecho digital de retirada provisional del mercado. Pero, ¿supone realmente un avance respecto a la regulación europea o simplemente es una transposición con matices?
Europa se ha posicionado como líder en la regulación de la IA con la aprobación, en marzo de 2024, del Reglamento Europeo de IA. Esta norma establece un marco basado en el riesgo, dividiendo las aplicaciones en distintas categorías según su impacto, desde aquellas sin restricciones, como los filtros de spam, hasta las de alto riesgo, como las utilizadas en procesos de selección de personal o diagnósticos médicos, que deben cumplir requisitos de transparencia y supervisión.
También contempla la prohibición de aplicaciones que manipulen el comportamiento humano o vulneren derechos fundamentales. En este contexto, España ha avanzado en la implementación del Reglamento con la creación de la Agencia Española de Supervisión de la Inteligencia Artificial, la primera de su tipo en Europa, con sede en A Coruña. Sin embargo, el anteproyecto de ley aprobado recientemente introduce elementos adicionales que buscan dotar a la regulación de un mayor carácter operativo y adaptado a la realidad española.
El nuevo anteproyecto no se limita a incorporar el marco europeo, sino que aporta medidas adicionales relevantes. Una de ellas es la obligación de etiquetar contenidos generados por IA, una medida que va más allá de los principios generales de transparencia establecidos en el Reglamento Europeo.
En España, textos, audios y vídeos creados con IA deberán ser identificados de manera explícita, con especial atención a los deepfakes, con el objetivo de combatir la desinformación. También se refuerza la supervisión, asignando responsabilidades claras a distintos organismos. La Agencia Española de Protección de Datos asumirá la supervisión de los datos biométricos, mientras que la Junta Electoral Central y el Consejo General del Poder Judicial tendrán potestad sobre sistemas que puedan afectar a la democracia y la justicia, respectivamente. Además, el anteproyecto prevé la creación de entornos regulados de pruebas para desarrolladores de IA, adelantándose a la obligación europea de 2026, lo que podría fomentar la innovación sin comprometer la seguridad jurídica.
Otra novedad es la introducción de un derecho digital de retirada provisional del mercado, que permitirá suspender el uso de sistemas de IA en caso de incidentes graves que puedan poner en peligro la seguridad de los ciudadanos. Finalmente, se establece un régimen sancionador específico con multas de hasta 35 millones de euros o entre el 5% y el 7% de la facturación global de las empresas infractoras, en línea con el Reglamento Europeo.
Si bien el anteproyecto español refuerza algunos aspectos de la normativa europea, todavía existen retos importantes que requieren un mayor grado de concreción y desarrollo normativo. Uno de ellos es la coordinación con el Reglamento General de Protección de Datos y la legislación nacional en materia de protección de datos. La interacción entre ambas normativas sigue sin estar del todo definida, especialmente en lo que respecta a la gestión de datos biométricos, un ámbito especialmente delicado por las implicaciones que tiene en la privacidad de los ciudadanos y el posible uso indebido de estos datos por parte de terceros.
También se plantean dudas sobre la aplicabilidad real del etiquetado de contenidos. No solo se trata de etiquetar los contenidos de manera efectiva, sino de establecer mecanismos que permitan verificar que dicha obligación se cumple de forma rigurosa. Además, quedan por definir los criterios específicos para determinar qué tipo de contenido debe ser etiquetado y cuáles serán las consecuencias en caso de incumplimiento.
El anteproyecto de ley supone un paso importante en la regulación de la inteligencia artificial en España. Se alinea con el marco europeo, pero introduce medidas propias que buscan un equilibrio entre regulación e innovación. Queda por ver cómo interactuará con el Reglamento Europeo y el resto del cuerpo normativo comunitario, y si realmente logrará marcar una diferencia en la protección de los derechos digitales y el desarrollo tecnológico.
Por Guillem València Caballero, abogado de Santiago Mediano Abogados.
Puedes leer el artículo completo en El Confidencial haciendo clic aquí.
Recent comments