Pocas cosas menos atractivas se me ocurren que leer un artículo sobre legislación de una materia que, pese a estar en boca de todos, es completamente desconocida y excesivamente técnica y compleja. Pero como la actualidad manda y la incursión de la inteligencia artificial (IA) en las empresas es inevitable, trataremos de abordarlo de la manera más sencilla y didáctica posible.
Empecemos por el principio.
¿Qué es el Reglamento (UE) 2024/1689?
La Unión Europea ha aprobado el Reglamento (UE) 2024/1689, por el que se establecen normas armonizadas en materia de inteligencia artificial. Se trata de una normativa única a nivel mundial que tiene como finalidad “promover la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta”.
Nos encontramos ante una norma muy técnica y extensa —144 folios y con letra muy pequeña— que si se quiere analizar correctamente debe hacerse sin perder de vista que el legislador no pretende potenciar o desarrollar la IA, sino limitarla para salvaguardar los derechos de las personas. No son pocas las voces críticas que afirman que la Unión Europea se está pegando un tiro en el pie y que este Reglamento hará que se quede atrás en la carrera mundial del uso de esta tecnología, pero eso da para otro artículo.
¿Qué se considera IA?
Lo primero que viene a la cabeza al hablar de IA es ChatGPT por el impacto que ha supuesto al mostrar el potencial de la IA generativa. Sin embargo, la IA lleva muchísimos años entre nosotros, aunque no fuéramos conscientes de ello: en el buscador de Google y sus recomendaciones, en las tiendas online, en redes sociales, etc.
El Reglamento se ha visto en la necesidad de definir qué es un sistema de IA. Para simplificar, pues la definición es un poco técnica, podemos decir que se trata de un sistema diseñado para funcionar con autonomía una vez que se le ha facilitado información, mostrando capacidad de adaptación y generando resultados como predicciones, contenidos, recomendaciones o decisiones, lo que puede influir en el mundo real y en el virtual.
¿Para qué puede utilizarse la IA en las relaciones laborales?
Desde la perspectiva laboral existen ya muchos ejemplos de usos de la IA implementados en las empresas. Por ejemplo, la IA ya está ayudando a tomar decisiones en procesos de selección, para determinar promociones profesionales e, incluso, para decidir sobre extinciones contractuales.
El miedo del legislador estriba en que esas decisiones basadas en conclusiones o recomendaciones realizadas por una IA conlleven una vulneración de los derechos de los trabajadores. Y pone el foco de atención en la información con la que se alimenta el sistema de IA, pues esta herramienta sólo tendrá en consideración la información de que disponga.
Por ejemplo, si se utiliza una IA para decidir sobre una promoción profesional de algunos empleados de un departamento y se introduce únicamente como información el nivel de absentismo y el sexo de cada empleado, el sistema de IA puede llegar a la conclusión de que, con los datos recibidos —y estamos ante un ejemplo—, las mujeres se ausentan más que los hombres y, por tanto, acabar proponiendo que todas las promociones correspondan a hombres precisamente por tener la condición.
En un caso así, en realidad, el sexo de las personas podría ser irrelevante y deberían considerarse otras variables más adecuadas.

¿Cómo se controlan los riesgos en el Reglamento?
El Reglamento (UE) 2024/1689 establece cuatro niveles de riesgo. Teniendo en cuenta que el cuarto se considera como «riesgo inaceptable» y se prohíbe el uso de la IA para ciertas cuestiones —v. gr. vigilancia masiva—, el tercer nivel de riesgo —y el más alto que se puede aceptar— es el «alto riesgo», y es el que más obligaciones conlleva.
Todo uso de la IA en el entorno laboral se considera «alto riesgo».
Así, las empresas que implementan y hacen uso de la IA tienen un decálogo de obligaciones que pretenden limitar y controlar su uso, entre las que podemos destacar:
- Debe existir siempre una supervisión humana por alguien que tenga la competencia, la formación y la autoridad necesarias.
- Los datos de entrada con los que se alimenta la IA deben ser pertinentes y suficientemente representativos para cumplir con la finalidad de esa herramienta.
- Antes de utilizar una IA, es obligatorio informar a los representantes de los trabajadores, y a los trabajadores afectados, de que estarán expuestos a la utilización de un sistema de IA.
- Se debe asegurar la protección de los datos personales, en consonancia con la normativa europea.
- Cuando el sistema de IA tome decisiones o ayude a ello se debe informar a las personas que están expuestas a la utilización de estos sistemas de IA.
- Si un empleado se ve afectado por una decisión que se ha adoptado basándose en lo concluido por una IA, tendrá derecho a obtener explicaciones claras sobre el papel que la IA ha tenido en la toma de esa decisión y los principales elementos de la decisión adoptada.
¿Existen sanciones si una empresa usa IA y no cumple con esas obligaciones?
El legislador no ha perdido la oportunidad de establecer un régimen sancionador muy severo.
En líneas generales, los distintos Estados miembros tienen la facultad de establecer un régimen de sanciones en su ámbito territorial, que pueden ser meras advertencias, medidas no pecuniarias y multas económicas. Para ello, nuestro país ya ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), con sede en La Coruña.
Sin perjuicio de ello, además, para las empresas que no cumplan con sus obligaciones en el uso de la IA y las relaciones laborales, el Reglamento ha establecido multas de hasta 15 millones de euros —sí, el dato es correcto— y multas de hasta el 3% del volumen de negocios a nivel mundial —sí, mundial—.