Gesti

AutorS

Algorithmic management and collective protection of labour rights

Sumario. 1. Gestión empresarial algorítmica y derechos de las personas trabajadoras. 2. Impacto discriminatorio y colectivos de personas trabajadoras vulnerables. 2.1. El algoritmo Frank, discriminatorio por diversos motivos 2.2. La necesaria actualización de la tutela antidiscriminatoria. 3. Tutela de derechos y gestión empresarial algorítmica. 3.1. El Reglamento General de Protección de Datos. 3.2 Estrategia Europea en Inteligencia Artificial. 3.3. Propuesta de Reglamento Europeo sobre IA: Alto riesgo de la gestión empresarial automatizada. 3.4. Regulación en España sobre IA en la gestión empresarial. 4. Tutela de los derechos laborales: Déficit de mecanismos de tutela colectiva. 5. La necesaria tutela colectiva frente a la gestión empresarial algorítmica. 6. Propuestas de instrumentos de tutela colectiva de los derechos laborales. 7. Bibliografía

  1. Gestión empresarial algorítmica y derechos de las personas trabajadoras

    Los efectos que la inteligencia artificial (IA) tendrá en las empresas y en el trabajo son aún inciertos. La IA puede producir beneficios para las personas trabajadoras, como el aumento de las capacidades humanas, la mejora de la creatividad, la promoción de la inclusión, la reducción de las desigualdades económicas, sociales y de género, pero también puede implicar peligros, al aumentar las actitudes autoritarias y, sobre todo, porque sus efectos resultan impredecibles (Aloisi y Gramano, 2019:126).

    El siglo XXI ha dado paso a la introducción de sistemas de IA, en el ámbito de la gestión empresarial, donde se utilizan herramientas de machine learning o de aprendizaje automático para la adopción de decisiones automatizadas de recursos humanos, relativas a la selección y contratación, promoción, retribución, control y sanción de las personas trabajadoras. Estos sistemas de IA posibilitan la adopción de decisiones autónomas y predictivas, al margen o en colaboración con las personas responsables en la gestión de las empresas y con importantes efectos para las personas trabajadoras (Agencia Española de Protección de Datos, 2020:2). Los progresos tecnológicos y las posibilidades de análisis de macrodatos, la inteligencia artificial y el aprendizaje automático han facilitado, en definitiva, la creación de perfiles y han automatizado las decisiones empresariales.

    Ya en 2016, conocidas empresas y plataformas (Goldman Sachs, Amazon) informaban de la utilización de un modelo algorítmico de gestión automática del personal, incluyendo decisiones de contratación e incluso de despido. Herramientas de IA y algoritmos son utilizados para la gestión de las plantillas, procesando datos derivados del seguimiento de las personas trabajadoras, la supervisión digitalizada y la evaluación de su rendimiento.. En materia de contratación, se utilizan datos personales a través de la información disponible en redes sociales y además del escaneo facial en entrevistas, es frecuente el escaneo automatizado de curricula (2). Las herramientas de IA analizan también el rendimiento laboral, a través de teléfonos y aplicaciones que rastrean la velocidad y registran movimientos, ritmos de trabajo y tiempos de descanso, en las plataformas digitales, donde se utilizan algoritmos que, determinando cómo se combinan la oferta y la demanda, fijan los niveles de pago y las consecuencias derivadas de calificaciones positivas o negativas (3). El uso de algoritmos en gestión empresarial se asocia al ofrecimiento de trabajo, según la demanda empresarial previamente establecida y el sistema de calificaciones del trabajo de las plataformas se extiende a sectores, como el de la restauración.

    Pues bien, la gestión algorítmica puede determinar intrusiones en la vida privada de las personas trabajadoras, al basarse en datos obtenidos de herramientas como las insignias inteligentes o la neurovigilancia y anular la distinción entre vida privada y tiempo de trabajo. En el control que ejercen las nuevas herramientas, la vigilancia va más allá del tiempo y lugar de trabajo (así la información obtenida de redes sociales o registros de patrones de sueño). En consecuencia, no puede ignorarse el nivel de estrés, derivado del control continuo sobre las personas, y los consiguientes riesgos psicosociales generados por estas prácticas. Además, el comportamiento digital puede ser objeto de vigilancia; en los programas de bienestar empresarial, se ofrecen dispositivos a los trabajadores que rastrean su nivel de estrés, estados emocionales, o el acceso a plataformas de seguimiento del sueño y los escaneos faciales predicen emociones frente a diversas situaciones. En definitiva, la gestión empresarial algorítmica exige recopilar datos de diversas fuentes (emails, redes sociales o credenciales inteligentes) lo que determina que todas las actividades de los trabajadores pueden ser objeto de control y seguimiento y que los datos sean procesados para medir su productividad y su compromiso empresarial. Es decir, implementada la gestión algorítmica, el buen funcionamiento del algoritmo exige big data; los algoritmos necesitan para un adecuado funcionamiento de una gran cantidad de datos sobre las personas trabajadoras.

    Pues bien, en el debate académico relativo al binomio IA y trabajo, se contraponen las ventajas para las empresas y los riesgos para los derechos de las personas trabajadoras. Su utilidad para las organizaciones, al ofrecer respuestas con eficiencia y ahorro de costes, no debe ocultar sus riesgos para los derechos de las personas afectadas. También destacando esta dualidad entre ventajas y riesgos, el Acuerdo Marco de 22/6/2020 (4), sobre la digitalización, señala, en relación con estos últimos, la posibilidad de atentar contra la dignidad del ser humano, de degradar las condiciones de trabajo y dificultar la delimitación entre la frontera entre vida profesional y vida personal. Es difícil prever, en efecto, cómo el seguimiento, la localización, la puntuación, la incentivación a través de "nudges" y penalizaciones, las clasificaciones y todas las métricas resultantes, generadas por las herramientas tecnológicas, pueden ser manipuladas y reutilizadas para inferir características no especificadas o para predecir comportamientos desconocidos.

    Centrando estos efectos, desde la perspectiva jurídica, hemos afirmado ya que la introducción de sistemas de IA en la gestión empresarial está determinando importantes efectos sobre los derechos a la intimidad, a la protección de datos, a la igualdad y a la salud laboral. Se destacan así los riesgos de una vigilancia laboral invasiva, las prácticas discriminatorias derivadas de la gestión algorítmica y el uso intensivo de datos de los trabajadores. Además, no pueden desconocerse los efectos de la IA sobre los riesgos profesionales y la tutela de la salud laboral, que habrá de adaptarse a la evolución derivada de la digitalización del trabajo (Lerouge, 2020: 3). Veamos a continuación el eventual impacto discriminatorio de la gestión empresarial basada en sistemas de IA, para después abordar, ya en términos más amplios, los mecanismos de tutela de los derechos laborales.

  2. Impacto discriminatorio y colectivos de personas trabajadoras vulnerables

    Uno de los temas más estudiados, en el ámbito iuslaboralista, ha sido el del eventual impacto discriminatorio de las decisiones de gestión empresarial algorítmica por la posible existencia de "bias'" o sesgos, que serían desviaciones inadecuadas en su proceso de inferencia. Los sesgos son particularmente graves si derivan en discriminaciones de un grupo en favor de otro y, aunque la existencia de sesgos no es un problema exclusivo de los sistemas de IA, sino común de las decisiones humanas, si es alarmante que la elaboración de perfiles pueda perpetuar o cronificar los estereotipos existentes y ampliar sus efectos de segregación. Igualmente, debe cuestionarse aceptar, sin espíritu crítico, los resultados de la IA como ciertos, objetivos e inamovibles, presumiéndoles una autoridad, que no haya sido contrastada.

    Son conocidos desde hace años, los ejemplos de impacto discriminatorio de la IA en la contratación o en materia salarial, en las plataformas. El sistema de contratación algorítmica de Amazon desfavorecía a las mujeres, al mostrar una preferencia hacia los candidatos hombres, al mismo tiempo que se denunciaba que la Agencia Estatal de Empleo en Austria (AMS) clasificaba a las mujeres desempleadas en un grupo inferior, incluso cuando experiencia y cualificaciones de hombres y mujeres eran coincidentes (Allhutter et al. 2020: 7). La discriminación salarial de las trabajadoras de plataforma, que usan algoritmos para fijar los niveles de pago, se evidencia en diversos trabajos (Kullmann, 2018:20), así como las discriminaciones por razón de edad (Ajunwa, 2019:28). La empresa HireVue, que ofrece entrevistas virtuales con solicitantes de empleo, utiliza una herramienta que identifica la expresión facial, indicaciones de voz, elección de palabras, pero el sistema de análisis facial utilizado tiene problemas para leer las caras de mujeres de piel oscura (5).

    En definitiva, la introducción de sistemas algorítmicos de contratación o de aplicaciones para medir la productividad de las personas, en el lugar de trabajo, si reproducen y amplían los sesgos y prejuicios discriminatorios existentes, podría vulnerar la prohibición de discriminación establecida por la normativa europea y española. Antes de analizar la eficacia de la tutela antidiscriminatoria en España, frente a eventuales supuestos de discriminaciones algorítmicas, nos referimos a la declaración judicial italiana, sobre el carácter discriminatorio del algoritmo FranK.

    2.1. El algoritmo FranK, discriminatorio por diversos motivos

    Hace apenas un año conocimos una declaración judicial sobre la naturaleza discriminatoria y antisindical de la aplicación del algoritmo FranK, por la plataforma Deliveroo, para la organización de las reservas de trabajo...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR