La carga de gestión algorítmica aumenta el estrés, su transparencia mejora sus efectos, según un estudio de la EU-OSHA [LARPSICO]

Que la Inteligencia Artificial (IA) cada vez coloniza más y más intensamente nuestros modos y mundos de vida, incluido el trabajo, muy especialmente, hoy es un dato incontrovertido. Gustará más o menos, pero está muy incrustado en el día a día y es irreversible. La clave no está ni en negarlo (ocultarlo) ni en resistirse sino en exigir que sea gestionado del modo más equilibrado posible, en términos tanto de eficacia (capacidad para resolver más problemas de los que crea) y eficiencia (que se haga con el menor coste posible) como justo (que beneficie a la mayoría de las personas en sus diferentes razones, tanto económicas como sociales). Y aquí reside, lógicamente, el problema y a cuya solución deben encaminarse las posibles respuestas (jurídicas, organizativas, éticas, convencionales, técnicas, etc.).
No es fácil, porque las empresas suelen considerar esta información, una vez que reconoce que acuden a estas formas de gestión basadas en algoritmos e IA, como reservada, generando conflictos, incluso judicializados. La Sentencia de la Audiencia Nacional 101/2025, de 4 de julio, constituye un ejemplo reciente de ello. El conflicto surge por la negativa empresarial (en este caso del sector de contact centers), a proporcionar a la representación sindical en la empresa información sobre el uso de un sistema algorítmico para gestionar el sistema de descansos, hoy muy complejo, sin duda.
La empresa había reconocido su uso en un proceso anterior (SAN 142/2024, 05/11/2024). Tras requerimientos varios, sin respuesta adecuada, el sindicato promovió la demanda de conflicto colectivo que da lugar a esta sentencia y en la que se da la razón a la representación laboral (el derecho es tanto de quienes ostentan el cargo de personas delegadas sindicales como de representación unitaria -por la equiparación del artículo 10.3.1 LOLS), en aplicación del art. 64.4 d) ET (derecho a la información pasiva sobre los parámetros de uso e incidencia en el trabajo de algoritmos). El resultado es una clara condena a la empresa por violación de la libertad sindical y la obligación de pagar una indemnización de daños morales pedida (6.250 €).
No cabe duda de que este mismo derecho informativo debe predicarse para las personas delegadas de prevención de riesgos laborales, así como para el Comité de Seguridad y Salud en el Trabajo (esta regla de equiparación se deriva de las SSTS 956/2016, de 16 de noviembre y 748/2023, de 17 de octubre). El art. 33 de la LPRL es inequívoco, incluso va más allá, al reconocer el derecho de consulta (no es información pasiva, sino activa), que presupone, como es lógico, la información previa, respecto de la introducción de nuevas tecnologías, “en todo lo relacionado con las consecuencias que éstas pudieran tener para la seguridad y la salud de los trabajadores”. Consecuencias que se proyectan con carácter general, también en el ámbito de los factores y riesgos psicosociales.
Lo reconoce claramente el informe, en el ámbito de la Unión Europea, titulado “Algorithmic management and AI-based systems as a new form of work organisation. Psychosocial factors and implications for Occupational Safety and Health” (Martín, J. (Ed.). Gestión algorítmica y sistemas basados en IA como una nueva forma de organización del trabajo: Factores psicosociales e implicaciones para la seguridad y salud en el trabajo -proyecto ALMA.AI-. Asociación para la Investigación Europea en Seguridad y Salud en el Trabajo -PEROSH, por sus siglas en inglés-, 2025).
Pero también, dentro de la OIT, su informe: 'Revolución de la seguridad y salud: Papel de la IA y la digitalización en el trabajo'. Reafirman algo tan sabido como difícil de conciliar: la gestión por IA puede mejorar el bienestar de las personas empleadas, pero también genera nuevos riesgos y emergentes, por lo que es necesario que su introducción se acompañe con políticas internas proactivas.
Entre las medidas más efectivas para garantizar ese debido, justo, equilibrio entre la carga algorítmica como factor de protección de la salud y el bienestar y su impacto como factor o fuente de riesgo en general (otros riesgos derivados son sus sesgos y su impacto discriminatorio, por ejemplo), y psicosocial en particular, la Agencia Europea de Seguridad y Salud en el Trabajo (EU-OSHA, por sus siglas en inglés), destaca la participación de las estructuras representativas de las personas trabajadoras en la gestión tecnológica del trabajo.
Realmente no nos aporta una gran novedad, porque las sucesivas ESENER (Encuesta europea de empresas sobre riesgos nuevos y emergentes) vienen dejando bien claro que las empresas con representación laboral y participación decisiva son más seguras y saludables que las que carecen de ella. Por lo tanto, este nuevo informe específico sobre participación en la gestión digital de las empresas para la mejora de la salud y el bienestar, incluido el psicosocial, no hace sino concretar y avanzar en esa idea, plenamente contrastada por la evidencia científica.
El Informe es consciente, con todo, de las dificultades. De ahí que plantee expresamente la cuestión de determinar cuáles son los principales obstáculos que están enfrentando las estructuras de representación laboral para identificar y prevenir los riesgos psicosociales derivados de la IA en el trabajo (pp. 13-14). Ya hemos visto que no es fácil avanzar, ni siquiera en la transparencia de esta gestión.
El ejemplo aquí analizado (conflicto colectivo en el contact center) es un buen ejemplo de estas trabas. Pero parece claro que el único camino para avanzar seguro, en términos de optimización empresarial de la I.A. y protección del bienestar es implicar a las personas trabajadoras. Y esa implicación debe pasar por la información, la formación y, lógicamente, el uso limitado, ponderado, justo de estas innovaciones.
En esta dirección se viene mostrando también el Comité Económico y Social Europeo. En sucesivos Dictámenes ha expresado su favor hacia una inteligencia artificial positiva para las personas trabajadoras, a partir de la potenciación de mecanismos que aprovechen al máximo su potencial, mitigando hasta su mínima expresión los riesgos, en todas las políticas sociolaborales, no solo en las políticas de empleo, también de seguridad y bienestar en el trabajo. (Dictamen de iniciativa, C/2025/1185, 25 de enero).
Compartir en