IA

La IA entra en el trabajo y la ley mueve ficha: así se protegen los derechos laborales frente a los algoritmos

El uso de inteligencia artificial en el empleo avanza rápido y plantea retos legales clave: Europa y España refuerzan normas para proteger derechos laborales

La IA entra en el trabajo y la ley mueve ficha: así se protegen los derechos laborales frente a los algoritmos
photo_camera La IA entra en el trabajo y la ley mueve ficha: así se protegen los derechos laborales frente a los algoritmos

El avance de la inteligencia artificial está transformando el mundo del trabajo a un ritmo vertiginoso. Cada vez es más común que un currículum sea filtrado primero por un algoritmo o que una aplicación sugiera promociones, traslados o despidos. ¿Está nuestro sistema jurídico preparado para afrontar este nuevo escenario? ¿cómo proteger los derechos de los trabajadores en un mundo en el que los algoritmos toman cada vez más decisiones?

El Reglamento Europeo de Inteligencia Artificial (RIA) es la primera gran norma que trata de poner orden en el uso de estas tecnologías. Parte de una idea sencilla: no todos los sistemas de IA generan el mismo riesgo y, por tanto, las obligaciones deben ser proporcionales. El RIA identifica tres grandes tipos de sistemas

  • Los sistemas de riesgo limitado o mínimo, como un chatbot para pedir vacaciones, tienen un impacto poco significativo, aunque el RIA exige a los empleadores que informen a los trabajadores de que están interactuando con una IA
  • Los sistemas prohibidos por vulnerar derechos fundamentales. Por ejemplo, no se permite que una empresa vigile las emociones de sus empleados con cámaras que “detectan” tristeza, alegría o estrés o el uso de sistemas que infieran creencias religiosas o afiliaciones sindicales.
  • Los sistemas de alto riesgo, que afectan a los derechos de las personas en menor medida, se permiten con garantías: datos de calidad, trazabilidad de las decisiones, supervisión humana efectiva y aplicabilidad de los procesos).

Aquí se incluyen los sistemas utilizados en selección de personal, evaluación o toma de decisiones laborales. En estos casos, las empresas deben garantizar siempre supervisión humana y dar explicaciones claras a los trabajadores. Un despido, por ejemplo, no puede justificarse solo con la conclusión de un programa informático. Adicionalmente, tienen la obligación de realizar estudios de impacto en derechos fundamentales antes de implantar estas herramientas

Más allá del RIA, España no dispone de una ley integral de IA en el empleo, pero el derecho vigente ofrece un armazón normativo sólido.

  • La Constitución protege el derecho al trabajo digno, la igualdad, la intimidad y la negociación colectiva.
  • El Estatuto de los Trabajadores obliga a las empresas a informar a los representantes sindicales sobre los criterios y parámetros de los algoritmos que influyen en la contratación o el despido.
  • La Carta de Derechos Digitales de 2021, aunque carece de fuerza normativa, se ha convertido en un referente político y ético. En su apartado XIX, reconoce la protección de la intimidad y la necesidad de informar a los representantes de los trabajadores sobre la implantación de sistemas de IA. Además, establece el derecho a la supervisión humana y a la impugnación de decisiones automatizadas más sensibles, como las contrataciones, ascensos o sanciones. Se consolida así un principio de “reserva de humanidad” en las relaciones laborales, que exige que la decisión, en último término, descanse en una persona. 

Junto con las normas legales, la negociación colectiva y los acuerdos entre trabajadores y empresas traducen las directrices europeas en medidas concretas. La experiencia demuestra que cuando los interlocutores sociales se sientan a la mesa, las soluciones se adaptan mejor a las realidades de cada sector y empresa. Acuerdos laborales pioneros como el AENC 2023-2025, ya obligan a informar a los sindicatos sobre el uso de algoritmos, o el Convenio de Telefónica (2024-2026), promueve el reskilling y la transparencia en la digitalización. A nivel europeo, destaca la declaración conjunta entre UNI Europa y los empleadores bancarios, primer acuerdo sectorial sobre IA.

Tampoco debe olvidarse la creciente relevancia de las herramientas de soft law, que, aunque no son jurídicamente vinculantes, influena en la configuración de estándares y buenas prácticas. Organismos internacionales como la OIT o la OCDE han publicado directrices y recomendaciones sobre la gestión ética de la IA en el trabajo. Recientemente la AESIA ha publicado 16 guías para orientar a las empresas en la implementación del RIA. En ocasiones, estas guías sirven de puente mientras la legislación se desarrolla o de inspiración para las propias políticas empresariales. La adopción de códigos de conducta internos, cartas éticas o compromisos sectoriales voluntarios puede reforzar la confianza de los trabajadores y anticipar la llegada de futuras obligaciones legales.

Todas estas cuestiones son abordadas por el Libro Blanco sobre el impacto, regulación y garantías ante el uso de la IA por el empleador, un informe que analiza de forma sistemática y exhaustiva el marco jurídico y las garantías legales frente al uso de sistemas de IA en el ámbito laboral. Elaborado por profesores de las Universidades de Valencia, Girona y Cádiz, este informe forma parte del proyecto CAIRE Google Charity, que impulsa asociación OdiseIA y que actúa como un laboratorio de propuestas que combinan la innovación tecnológica con la protección social.

El documento identifica cinco grandes bloques de casos de uso de la IA en el empleo. Entre ellos, el más decisivo es el de la IA aplicada al reclutamiento. Multinacionales como Unilever o Goldman Sachs ya utilizan sistemas automatizados de cribado de currículos o entrevistas por vídeo, que agilizan procesos masivos pero pueden incurrir en riesgos de sesgos discriminatorios. Como el célebre caso de Amazon, cuyo algoritmo penalizaba de forma indirecta a las mujeres.

El examen del marco normativo y de la práctica permite a sus autores proponer un catálogo detallado de recomendaciones para la incorporación legal y ética de sistemas de IA en las relaciones laborales. Entre ellas, se insiste en la necesidad de supervisión humana y transparencia, el refuerzo de la negociación colectiva y la protección reforzada a colectivos vulnerables. A tal efecto, sugiere que las organizaciones se doten de un marco normativo interno sólido que regule y establezca políticas claras de uso; un sistema de gobernanza interna para supervisar riesgos, coordinar evaluaciones de impacto en derechos fundamentales, garantizar la transparencia o promover la supervisión humana. En paralelo, aconseja la implementación práctica y las buenas prácticas mediante programas de formación continua, auditorías regulares y códigos de conducta sectoriales entre otros, que complementen la normativa con compromisos éticos.

En un momento en el que los algoritmos intervienen en la toma de decisiones laborales que afectan directamente a las personas, es fundamental la colaboración entre empleadores, trabajadores, desarrolladores y reguladores, pues la digitalización del trabajo solo será legítima si avanza de la mano de la dignidad y los derechos de las personas.