Personas trabajando con personas

DE LA SELECCIÓN AL DESPIDO: LOS LÍMITES LEGALES DE TRABAJAR A LAS ÓRDENES DE UN ALGORITMO

17 abril 2024
Imprimir
  • El vertiginoso avance de la IA puede colisionar con el derecho a la intimidad, a la no discriminación o a la protección de datos de las personas trabajadoras

 

El futuro que plasmaban tantas películas de ciencia ficción ya está aquí. La idea de una inteligencia artificial (IA) capaz de resolver problemas es una realidad en casi la mitad de las empresas españolas, que, según un estudio de Randstad y la CEOE, la utilizan para realizar alguna de sus tareas. Y es que cada vez más ejecutivos delegan alguna de sus funciones tradicionales en algoritmos, que pueden adoptar decisiones de forma automatizada sobre contrataciones, ascensos, determinación de horarios, evaluación de rendimiento, control de productividad, etc. Es lo que se conoce como dirección algorítmica del trabajo, un fenómeno en el que los mandos intermedios son desplazados por sistemas de inteligencia artificial.

Aunque esta idea puede resultar rocambolesca, la IA se está aplicando ya a las diferentes fases de la relación laboral de las personas trabajadoras: desde el uso de herramientas para cribar currículums hasta el empleo de nuevas tecnologías por parte del empleador para ejercer sus poderes de control y vigilancia. Y ello porque los algoritmos son capaces de analizar grandes volúmenes de datos y aprender de ellos, permitiendo a las compañías ser más eficientes. No obstante, también plantean nuevos desafíos, especialmente en el ámbito laboral.

El debate no se circunscribe solo a si la IA destruirá empleos o si será un complemento que facilite el trabajo, también gira en torno a cómo afecta a los derechos fundamentales de los ciudadanos. No en vano, su vertiginoso avance puede colisionar con el derecho a la intimidad, a la no discriminación o a la protección de datos. Por ejemplo, se han diseñado programas para predecir si es probable que una persona cambie de trabajo en el corto plazo o de inferir rasgos de su personalidad para determinar si se acopla a las características requeridas para el puesto. También los hay que alertan de qué candidatos podrían cometer actos de acoso sexual o que los catalogan ante el riesgo de sufrir ciberacoso psicológico o consumir drogas.

La regla general es que el empleador “debe informar siempre” al solicitante de empleo de que sus datos se van a someter a un sistema de IA, explica Adrián Todolí, profesor de Derecho del Trabajo de la Universidad de Valencia y economista. Si no informa, el tratamiento es “ilegal”. Y, aunque informe, también podría serlo si la decisión sobre la no contratación se basa exclusivamente en la decisión del algoritmo, pues el artículo 22 del Reglamento General de Protección de Datos (RGPD) establece el derecho de todo ciudadano “a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que le afecte significativamente”.

La excepción es que la automatización sea “necesaria”, lo que tendría lugar cuando la empresa “se enfrenta a un abrumador número de candidatos”, que un grupo de trabajo de la Unión Europea ha fijado en 10.000. En este caso, y a pesar de que todavía no hay jurisprudencial al respecto, se podrían reducir las candidaturas mediante automatización, “pero una persona debería tomar la decisión” final sobre la selección.

 

EL NUEVO REGLAMENTO DE LA IA

 

Precisamente, la Eurocámara aprobó hace un mes el Reglamento Europeo de IA, que contiene previsiones sobre el uso de la IA en materia de trabajo. Aunque está sometido a una última comprobación, el texto califica de “alto riesgo” los sistemas de IA “destinados a la selección de personas físicas”, explica Cecilia Pérez, socia laboral. También los sistemas de IA “destinados a tomar decisiones que afecten a las condiciones de las relaciones laborales, la promoción o la finalización de relaciones contractuales laborales o a supervisar y evaluar el rendimiento”. Este nivel de impacto implica que estos sistemas deben contar con supervisión humana y ser transparentes y precisos. Además, los ciudadanos tendrán derecho a recibir explicaciones sobre las decisiones basadas en ellos que les afecten y a presentar reclamaciones.

Actualmente, los sistemas de IA también permiten analizar la información que hay de los solicitantes de empleo en redes sociales para realizar perfiles y hacer predicciones. No obstante, como explica Todolí, esa información debe ser “pública”, estar “en abierto” y relacionada “con el puesto de trabajo”. Es decir, ni un empleador ni un algoritmo “podría tener en cuenta rasgos personales” que condujeran a discriminación, como la edad, la religión o la orientación sexual. “Recoger esos datos es ilegal”. Si el candidato, por ejemplo, tuviera un perfil privado en X (antes Twitter), el empleador “tampoco podría utilizar tecnología para jaquear su cuenta o pedirle la contraseña”.

En clave de discriminación, otro desafío que presenta la IA está relacionado con los sesgos. Uno de los casos más sonados fue el de Amazon, que en 2014 ideó un sistema de IA para cribar currículums y seleccionar a los mejores candidatos. La herramienta, basándose en los perfiles de los solicitantes de los últimos 10 años, aprendió que los hombres eran preferibles y empezó a discriminar a las mujeres que se postulaban a las vacantes para desarrollar softwares y otros puestos técnicos. Tras conocer el error, Amazon prescindió del sistema. Por eso, “tiene que haber una persona física que analice los resultados”.

 

PODER DE CONTROL Y VIGILANCIA

 

Celebrado el contrato de trabajo, la IA también se puede aplicar por parte del empleador para ejercer sus poderes de control y vigilancia. Por ejemplo, existen sistemas para combatir el cyberslacking, un anglicismo que significa ciber pereza y que hace referencia a la pérdida de productividad que ocasiona revisar redes sociales o mensajería personal durante la jornada laboral. Otros usos, como el control de las emociones o el empleo de datos biométricos para llevar a cabo registros, están prohibidos con carácter general debido a que pueden ser perjudiciales para la salud o la seguridad de los ciudadanos.

De hecho, en febrero la Agencia de Protección de Datos multó con 365.000 euros a una empresa por recopilar huellas dactilares de los empleados para implantar un sistema de fichaje sin informarles debidamente. Como explica la abogada Cecilia Pérez, “las empresas están obligadas a informar a sus trabajadores” cuando los datos personales se obtengan de ellos mismos, incluyendo una explicación sobre la lógica aplicada a la automatización y las consecuencias de dicho tratamiento. Además, “el Estatuto de los Trabajadores establece una obligación similar en favor de la representación legal de los trabajadores, que tendrá derecho a ser informada sobre los parámetros, reglas e instrucciones de los algoritmos o sistemas de inteligencia artificial que puedan incidir en las condiciones de trabajo, el acceso y mantenimiento de empleo”.

Otro tema polémico deriva de la utilización de IA para organizar la jornada. En este sentido, destaca una sentencia del Tribunal Ordinario de Bolonia de 2020, que condenó a la plataforma de reparto Deliveroo porque el algoritmo que empleaba para distribuir los repartos entre los riders penalizaba a aquellos que se ausentaban por enfermedad o asistencia a huelgas. Según la resolución, darles un trato idéntico a estas ausencias y a las provocadas por motivos de poca importancia constituye un caso de discriminación indirecta. En esta línea, algunas repartidoras también han denunciado que los algoritmos las penalizan cuando están menstruando, ya que al parar para ir a un aseo consideran que están tardando demasiado en realizar la entrega.

 

LA “LEY RIDER” EUROPEA

 

Para hacer más transparente el uso de algoritmos, la Unión Europea dio luz verde el mes pasado a la futura Directiva sobre trabajo en plataformas digitales, la “ley rider” europea. Entre otros aspectos, “contempla la obligación de informar debidamente a los trabajadores de estas plataformas de la utilización de sistemas automatizados de supervisión y de toma de decisiones que afecten a su contratación, condiciones de trabajo e ingresos”.

Aunque los algoritmos también pueden emplearse para medir la productividad y, en caso de bajo rendimiento, pueden ser un “apoyo” para justificar un despido, esa decisión “tiene que tomarla un humano, que tiene que saber explicarla”, señala Todolí. Si bien no hay jurisprudencia al respecto todavía, si el despido fuera decidido por un sistema de IA, podría ser declarado “improcedente o nulo”.

“A la evolución no hay que ponerle freno, pero sí reglas”. “La IA es tan potente que hay que controlarla para que no nos arrolle y cometa errores que menoscaben las condiciones de trabajo”.

 

EL FUTURO DEL TRABAJO

 

Corrientes. Cuando se habla de inteligencia artificial (IA), se distinguen dos grandes corrientes. Por un lado, la que defiende que las personas trabajadoras serán sustituidas por robots; por otro, la que sostiene que es una tecnología complementaria que facilitará el trabajo. Aunque cada vez son más los análisis sobre el efecto de la IA en el empleo, el impacto real es incierto ya que está en una fase temprana. No obstante, según la Organización para la Cooperación y el Desarrollo Económicos (OCDE), se diferencia de los cambios tecnológicos anteriores en que “amplía significativamente el rango de tareas que pueden ser automatizadas más allá de las rutinarias y no cognitivas”, es una tecnología “de propósito general, lo que significa que casi todos los sectores y ocupaciones se verán afectados”, y su velocidad de desarrollo no tiene “precedentes”.

Empleos. El Fondo Monetario Internacional (FMI) apunta que, “a diferencia de oleadas anteriores, que afectaron principalmente a trabajadores con cualificaciones medias, los riesgos de desplazamiento de la IA abarcan todo el espectro de ingresos, incluidos los profesionales cualificados” de las economías avanzadas. No obstante, la Organización Internacional del Trabajo (OIT) añade que “la mayoría de los empleos están solo parcialmente expuestos a la automatización y, por lo tanto, es más probable ser complementado en lugar de sustituido”.

España. En el caso de España, Randstad Research predice que podría suponer la destrucción de dos millones de empleos en los próximos 10 años, aunque a su vez podría dar lugar a 1,6 millones de nuevas ocupaciones por las oportunidades surgidas, dejando el neto potencial en 400.000 empleos perdidos. Los sectores más impactados negativamente serían el comercio y las actividades administrativas, respectivamente, seguidos de la hostelería y la logística. La clave, según Fernando Santiago, presidente del Consejo General de Colegios de Gestores Administrativos de España y del Colegio de Madrid, está en “saber manejar la IA. Es una herramienta que simplificará procesos y plazos y ayudará a quienes la utilicen. Quienes no la sepan usar, desaparecerán”. En su opinión, “hay algo que no va a poder sustituir, que es la empatía”.

 

 

Fuente: CincoDías

Uso de cookies

Utilizamos cookies propias y de terceros para prestar nuestros servicios y analizar la actividad de la web con la finalidad de mejorar su contenido. Si continúa navegando sin modificar la configuración de su navegador, consideramos que acepta su uso. Más información en nuestra Política de cookies. política de cookies