El Gobierno español ha dado el visto bueno al anteproyecto de ley de gobernanza de la Inteligencia Artificial (IA). Este instrumento normativo adaptará la legislación española al reglamento europeo de IA, ya en vigor, con un enfoque regulador que impulsa la innovación. El objetivo es garantizar el uso ético, inclusivo y beneficioso de esta tecnología.
El anteproyecto de ley será tramitado por la vía de urgencia, siguiendo todos los trámites preceptivos, antes de volver al Consejo de Ministros para su aprobación definitiva como proyecto de ley y envío a las Cortes para su aprobación.
Óscar López, ministro para la Transformación, ha remarcado que el uso de la IA puede ser beneficioso, citando que puede ser “utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir bulos y mentiras”.
La normativa prohíbe el uso malicioso de la IA, introduce obligaciones más rigurosas para sistemas considerados de alto riesgo y establece unos requisitos mínimos de transparencia. Asimismo, se incorpora un nuevo derecho digital de retirada provisional del mercado español de sistemas de IA por parte de la autoridad de vigilancia competente cuando ocurra un incidente grave.
Entre las prácticas prohibidas se incluyen el uso de técnicas subliminales para manipular decisiones sin consentimiento, la explotación de vulnerabilidades relacionadas con la edad o discapacidad, y la clasificación biométrica basada en la raza, orientación política, religiosa o sexual. Las sanciones por estas infracciones oscilarán entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior.
Los sistemas de IA considerados de alto riesgo deberán cumplir con diversas obligaciones, como la gestión de riesgos y la supervisión humana. Las infracciones muy graves, como no comunicar incidentes graves, podrán ser sancionadas con multas de hasta 15 millones de euros o el 3% del volumen de negocio mundial.
Las nuevas prácticas entraron en vigor el 2 de febrero de 2025 y desde el 2 de agosto de 2025 se podrán sancionar mediante multas u otras medidas adicionales.
La vigilancia de los sistemas prohibidos será realidad por la Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras); el Consejo General del Poder Judicial (para sistemas de IA en el ámbito de la justicia), la Junta Electoral Central (para sistemas de IA que afecten a procesos electorales) y la Agencia Española de Supervisión de la Inteligencia Artificial en el resto de los casos.
Según nota de la entidad, los sistemas de IA de riesgo son todos los que puedan añadirse como elementos de seguridad a productos industriales, sistemas que formen parte de los ámbitos de biometría, infraestructuras críticas, educación y formación profesional, empleo, acceso a servicios privados esenciales (como servicios crediticios o de seguros) y a servicios y prestaciones públicos esenciales (como servicios de emergencias o triaje) y el disfrute de estos servicios y prestaciones, sistemas para la garantía del derecho, migración, asilo y gestión del control fronterizo, sistemas para su uso en la administración de justicia y en procesos democráticos.
Los sistemas deberán cumplir una serie de obligaciones que van desde disponer de un sistema de gestión de riesgos y de supervisión humana hasta documentación técnica, gobernanza de datos, conservación de registros, transparencia y comunicación de información a los responsables del despliegue, sistema de calidad, etc. En caso de incumplimiento, se exponen a sanciones en función de su gravedad.
Según nota de la entidad gubernamental, no cumplir con la obligación de etiquetar correctamente cualquier imagen, audio o vídeo generado o manipulado por IA será una infracción grave, y será una infracción leve no incorporar el marcado CE en el sistema de IA de alto riesgo o, cuando no sea posible, en su embalaje o en la documentación que lo acompañe, para indicar la conformidad con el Reglamento de IA.
España se ha adelantado al requisito europeo de establecer un entorno controlado de pruebas (sandbox) para fomentar la innovación en IA, el cual entrará en vigor el 2 de agosto de 2026. En diciembre pasado, se lanzó una convocatoria para seleccionar hasta 12 sistemas de IA de alto riesgo que participarán en este entorno durante un año.