[LARPSICO] Publicado el Reglamento de Inteligencia Artificial: ¿pone la salud emocional laboral en el centro?
Después de un proceso muy atormentado, demasiado, y de varias rebajas de su intensidad reguladora, a fin de alcanzar los difíciles equilibrios propios de la Unión Europea y sus razones siempre ambivalentes, se ha publicado el Reglamento (UE) 2024/1869 del Parlamento Europeo y del Consejo de 13 de junio , en virtud del cual se establecen normas armonizadas en materia de inteligencia artificial (IA) y se modifican varios Reglamentos y Directivas pertinentes. De forma abreviada se llama Reglamento de Inteligencia Artificial (RIA), como tal de aplicación directa e inmediata, sin transposición estatal, o “Ley Europea de Inteligencia Artificial” (LEIA), como se conoce vulgarmente (es poco preciso, pero muy gráfico). Ni que decir tiene que se trata de una norma de enorme complejidad (tiene la friolera de 180 considerandos -explican por qué se regula lo que se prescribe en el cuerpo normativo y cómo deben interpretarse realmente-; 113 artículos y la barbaridad de 13 Anexos) que afecta a diversos ámbitos de las relaciones económicas (control de la comercialización de estos sistemas, sobre los que hay abierta una carrera mundial) y sociales (usos de las personas), incluyendo las laborales y a diferentes efectos de gestión. Las contradicciones y complejidades empiezan con su entrada en vigor, pues formalmente lo será 20 días después de su publicación, pero su efectividad no comenzará hasta el 2 de agosto de 2026 (art. 213 RIA), aunque se escalona por preceptos, culminado el año 2027. ¿No quedará desfasado cuando sea efectivo?
¿Por qué debe ser noticia en un espacio de seguridad y salud en el trabajo, con una especial orientación hacia la gestión psicosocial de riesgos laborales? Primero, porque la estructura general de tan extenso e intenso Reglamento se articular principalmente sobre el “enfoque de gestión de riesgos” y su “evaluación”, cuyo funcionamiento y verificación se somete a “sistemas de gestión de calidad”. Según la intensidad de ese riesgo (inaceptable, alto, limitado, leve o mínimo), medido en atención a su peligrosidad para los derechos de carácter fundamental de las personas (privacidad, igualdad, salud, etc.), las reglas serán unas u otras. Segundo, porque el RIA se abre, delimitando su objeto, con su vocación de mejora del funcionamiento del mercado interior y promoción de una inteligencia artificial (IA) “centrada en el ser humano y fiable”, garantizando al mismo tiempo “un elevado nivel de protección de la salud, la seguridad” y los (demás -la salud también lo sería-) derechos fundamentales consagrados en la Carta “frente a los efectos perjudiciales de los sistemas de IA en la Unión”, sin renunciar a “prestar apoyo a la innovación” tecnológica.
Vemos, pues, cómo, junto a la seguridad (los «componentes de seguridad» de un sistema de IA cumple una función de seguridad para dicho producto o sistema de IA, o cuyo fallo o defecto de funcionamiento pone en peligro la salud y la seguridad de las personas o los bienes -art. 3 RIA-), la salud de las personas aparece en el centro de esta norma, junto a la protección de otros derechos fundamentales humanos frente a los riesgos (es decir, la combinación de la probabilidad de que se produzca un perjuicio y la gravedad de dicho perjuicio) de los sistemas de IA (se define como un sistema basado en una máquina diseñado para actuar con distintos niveles de autonomía y capa de adaptación tras el despliegue, de modo que, para objetivos explícitos o implícitos, infiere de la información de entrada recibida la forma de generar resultados de salida -predicciones, contenidos, perfiles, recomendaciones o decisiones-, susceptibles de influir en los entornos físicos o en los virtuales -art. 3-). El Considerando 6 enfatiza que, como requisito previo, la IA debe “ser una tecnología centrada en el ser humano. Además, debe ser una herramienta para las personas y tener por objetivo último aumentar el bienestar humano”. Naturalmente, aquí ha de entenderse incluido especialmente el bienestar psicosocial de las personas en todos los entornos en los que esté presente la IA, desde luego en los laborales, donde adquiere cada vez mayor presencia, siempre con un enfoque integrado del entorno interno laboral y el ambiente externo (Considerando 48).
Asimismo, en tercer lugar, y relacionado con este enfoque de mejora del bienestar psíquico de las personas mediante la IA, hay que destacar que en el RIA ocupa un lugar privilegiado la atención a los llamados “sistema de reconocimiento de emociones": un sistema de IA destinado a distinguir o inferir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos, de todo tipo y sea cual sea la forma de captación (según el Reglamento General de Protección de Datos, reflejado en el art. 3 del RAI, se tiene por tales los datos personales obtenidos a partir de un tratamiento técnico específico, sobre las características físicas, fisiológicas o conductuales de una persona física, como imágenes faciales o datos dactiloscópicos). Por tanto, la IA permite pasar de la gestión de los datos (autenticación, identificación o categorización de las personas físicas) a la gestión de emociones, afectando a la autodeterminación e intimidad mental de las personas, tanto consumidoras como trabajadoras. Precisamente, el considerando 44 del RIA evidencia que existe:
“Gran preocupación respecto a la base científica de los sistemas de IA que procuran detectar o deducir las emociones… Algunas de las deficiencias…de estos sistemas son la fiabilidad limitada, la falta de especificidad y la limitada posibilidad de generalizar. Por consiguiente, los sistemas de IA que detectan o deducen las emociones…a partir de sus datos biométricos pueden tener resultados discriminatorios y pueden invadir los derechos y las libertades de las personas afectadas. (…). Por tanto, debe prohibirse la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA destinados a ser utilizados para detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los sistemas de IA introducidos en el mercado…con fines médicos o de seguridad, como los sistemas destinados a un uso terapéutico.”.
Lógicamente, la cuestión en la gestión de riesgos psicosociales en el trabajo surge porque el uso de estos sistemas puede presentarse como eficaz para la prevención, en especial en entornos digitales, pero derivar en otros distintos, u opuestos, el conocimiento que permita de estados de ánimo, patologías psíquicas o predisposición a ellas.
El entorno laboral, pues, podría ser una excepción a la prohibición de tales sistemas de reconocimiento automatizado de emociones, si se acredita que su uso lo es en exclusiva para la vigilancia de la salud psicosocial o integral en los entornos de trabajo (artículo 5.1 f) RIA). Como es lógico, en este caso, deben encuadrarse en el nivel 2 (sistemas de IA de alto riesgo), recogidos en el art. 6 y en especificados en el Anexo III, afirmándose en el apartado o considerando 54:
“Además, deben clasificarse como de alto riesgo los sistemas de IA destinados a ser utilizados para la categorización biométrica conforme a atributos o características sensibles protegidos en virtud del artículo 9.1 del Reglamento (UE) 2016/679…”.
Comprobamos, pues, que este alto riesgo se deriva de la especial protección frente a la fuente de los datos de los cuáles se deduce este reconocimiento de emociones, como son los biométricos. En tales casos, se exigirá un sistema de garantías reforzadas (arts. 26, 27 y 86 RAI). Ahora bien, ¿y si esos reconocimientos no se basan en datos biométricos? En ese caso cabría incluirlos o en el nivel 3 o, incluso, 4. Precisamente, muchas empresas han puesto en marcha herramientas de gestión informática de la salud psicosocial a través de diferentes “software” (plataformas, aplicaciones y chatbots), por lo que bien podrían tener inclusión en el art. 50 RIA.
Por tanto, como podemos comprobar, la inicial sencillez del planteamiento del RIA respecto del reconocimiento de emociones, su prohibición, queda fuertemente modulada en el ámbito de la gestión laboral, por cuanto podrían presentarse como un instrumento de mejora del bienestar psicosocial en los entornos de trabajo. En consecuencia, se precisará evaluar su nivel de riesgo y, en función, del mismo, las obligaciones y garantías variarán. Lo que genera, sin duda, un nuevo desafío tanto para las fuentes reguladoras de las relaciones de trabajo, como la negociación colectiva, y de los servicios de prevención de riesgos del trabajo en conjunción con los departamentos de gestión de personal. Arriesgado, sin duda, tanto como fascinante. En suma, las nuevas tecnologías nunca pueden dejar indiferentes a las personas profesionales de la prevención de riesgos laborales, tanto en lo que hace a la aparición de nuevos riesgos como a las oportunidades de mejora que crea. La búsqueda del debido equilibrio no será sencilla, pero tampoco puede ser eludido. Veremos.
Compartir en