La UE ha activado la supervisión y las sanciones sobre la inteligencia artificial

En 2024 la Unión Europea aprobó el primer marco legal para la inteligencia artificial en el mundo. Esta norma, conocida como AI Act o Ley de Inteligencia Artificial, ha empezado a aplicarse de forma gradual y busca cambiar la manera en que se utilizan los algoritmos en todos los ámbitos sociales y económicos. ¿Qué regula exactamente y cómo notarán los ciudadanos su aplicación?

La Ley de IA (AI Act) es la primera normativa integral sobre inteligencia artificial del planeta. Su objetivo es fomentar una IA de confianza al establecer normas armonizadas para el diseño, desarrollo y uso de estos sistemas informaticos. La Comisión Europea explica que se trata de un reglamento basado en riesgos que forma parte de un paquete más amplio de medidas para apoyar la innovación y proteger los derechos fundamentales

¿Por qué hace falta una ley así? La Comisión señala que muchas decisiones automatizadas son opacas y pueden afectar a derechos básicos, como el acceso a un empleo o a un servicio público. Aunque existen normas sectoriales, no son suficientes para responder a los riesgos específicos de la IA. La Ley pretende cubrir ese vacío asegurando que los algoritmos sean seguros, transparentes y sometidos a supervisión humana.

Un enfoque escalonado y basado en el riesgo

El reglamento divide las aplicaciones de IA en cuatro niveles:

En la cúspide se encuentran los usos de riesgo inaceptable: sistemas que manipulan a las personas, explotan vulnerabilidades, hacen «social scoring» o permiten el reconocimiento biométrico remoto en espacios públicos. Estas prácticas quedan prohibidas en la UE.

Le siguen los sistemas de alto riesgo, que abarcan desde las herramientas de selección de personal hasta la evaluación de créditos, la gestión de infraestructuras críticas o ciertos usos en migración y justicia. Antes de comercializarlos, sus proveedores deberán realizar evaluaciones de riesgo, garantizar la calidad de los datos, llevar registros de las operaciones, ofrecer documentación detallada y asegurar supervisión humana y robustez técnica.

En el nivel de riesgo limitado se agrupan aquellas aplicaciones que exigen transparencia. Un ejemplo son los chatbots: los usuarios deben saber que interactúan con una máquina. La norma también obliga a que los contenidos generados por algoritmos, como vídeos o textos, estén identificados y etiquetados cuando puedan confundirse con material real, por ejemplo, en el caso de los «deep fakes».

Finalmente, la mayoría de los sistemas, considerados de riesgo mínimo o nulo (videojuegos, filtros de spam), quedan fuera del ámbito regulatorio.

 

Aplicación progresiva: fechas clave

La Ley de IA entró en vigor el 1 de agosto de 2024, pero sus disposiciones se aplicarán de manera escalonada. Las prohibiciones y las obligaciones básicas de alfabetización digital comenzaron a aplicarse desde el 2 de febrero de 2025. El 2 de agosto de 2025 entró en vigor las reglas de gobernanza y las obligaciones específicas para los modelos de propósito general (GPAI). A partir del 2 de agosto de 2026, la norma será plenamente aplicable y los sistemas de alto riesgo deberán cumplir todas las obligaciones marcadas; no obstante, algunos dispositivos integrados en productos regulados (como maquinaria o vehículos) contarán con un periodo adicional hasta agosto de 2027.

Para que el despliegue sea homogéneo se ha creado la Oficina Europea de la IA, un organismo de la Comisión que vigilará el cumplimiento y supervisará los modelos más potentes. Además, cada Estado miembro debe nombrar autoridades nacionales de supervisión antes del 2 de agosto de 2025. En el caso de España esta autoridad encargada de supervisar y hacer cumplir el Reglamento Europeo de Inteligencia Artificial es la Agencia Española de Supervisión de la Inteligencia Artificial o AESIA Estas autoridades cooperarán en la investigación de incidentes y en la protección de los derechos fundamentales, garantizando que la nueva ley sea efectiva a escala local.

Lo que veremos en 2025 y 2026

En los próximos meses desaparecerán ciertos usos de la IA. Las administraciones y empresas tendrán que dejar de utilizar sistemas que puntúan a las personas, rastrean sus emociones en el trabajo o permiten identificarlas a distancia. También veremos cómo los asistentes conversacionales indican claramente que no son humanos y cómo los contenidos generados por IA incluyen marcas visibles cuando puedan inducir a error. Las campañas de información impulsadas por la UE pretenden además mejorar la alfabetización digital y que los ciudadanos entiendan sus derechos ante la tecnología.

A partir de este agosto de 2025 se exigirán códigos de buenas prácticas y resúmenes públicos de los datos de entrenamiento para los modelos de propósito general, lo que aumentará la transparencia de herramientas como los grandes modelos de lenguaje. En 2026, los algoritmos utilizados en sectores sensibles (sanidad, educación, banca, transporte o selección de personal) deberán superar evaluaciones de conformidad y disponer de mecanismos de supervisión humana. Esto significa que, por ejemplo, un sistema que decida sobre la concesión de un préstamo o la puntuación de un examen tendrá que demostrar que no discrimina y que hay una persona responsable de sus decisiones.

Inversión en inteligencia artificial en España

En paralelo a la regulación europea, el mercado español de IA está en plena ebullición. Según un informe de la consultora TendersTool (Adjudicaciones TIC), el 56 % de los procedimientos licitados por las administraciones públicas españolas en 2024 estaban relacionados con soluciones de inteligencia artificial. Sin embargo, el grueso del presupuesto sigue yendo a la automatización robótica de procesos (RPA), cuyo importe medio supera en un 44 % al de las licitaciones de IA. Esto refleja que la IA aún se utiliza sobre todo en proyectos piloto o pruebas de concepto, mientras que la RPA se ha consolidado como una herramienta estable para automatizar plataformas sanitarias, fiscales o de gestión documental.

El estudio también destaca que las comunidades autónomas concentran la mayor parte de las licitaciones tanto en IA como en RPA. Los ayuntamientos y diputaciones prefieren proyectos orientados a la atención ciudadana y la analítica predictiva, mientras que la Administración General del Estado reparte sus esfuerzos entre ambas tecnologías. Organismos como la Dirección General de Tecnologías de la Información y las Comunicaciones de la Generalitat Valenciana, la Consejería de Hacienda de Castilla‑La Mancha, el Instituto Nacional de Técnica Aeroespacial o RENFE figuran entre los que más invierten en IA. Esto sin contar las contrataciones centralizadas de la DGRCC (Dirección General de Racionalización y Centralización de la Contratación).

Una transición que busca confianza

La entrada en vigor de la Ley de IA supone un hito regulatorio que pretende equilibrar innovación y derechos. Para los ciudadanos, significará una mayor transparencia en el uso de los algoritmos y la desaparición de prácticas abusivas. Para las empresas y administraciones, implicará adaptar procesos, invertir en certificaciones y adoptar buenas prácticas. Al mismo tiempo, las cifras de TendersTool muestran que España ya está apostando por la inteligencia artificial, aunque aún convive con proyectos de robotización más tradicionales. Con la regulación y la inversión avanzando en paralelo, 2025 y 2026 serán años decisivos para consolidar una IA segura, responsable y al servicio de la sociedad.