Despedidos por el algoritmo

Rusia. Unos 150 desarrolladores y empleados de la firma informática rusa Xsolla fueron despedidos después que la empresa utilizase todas sus herramientas de inteligencia artificial y análisis de datos para analizarlos durante su jornada laboral. La notificación del empresario fue a través de un correo … y un post en Facebook.

“El equipo de big data de la empresa ha analizado tu actividad en Jira, Confluence, Gmail, chats, documentos, paneles y te etiquetó como empleado poco comprometido e improductivo. En otras palabras, no siempre estabas presentes en el lugar de trabajo cuando lo hacías de forma remota”.

Esto es parte de un mensaje de correo electrónico que han recibido 150 empleados de la empresa rusa Xsolla (de un total de 500) y con el que han sido despedidos, justificando dicha decisión por el análisis efectuado con Inteligencia Artificial. El comunicado lleva la firma del dueño de la empresa Aleksandr Agapitov.

En una clara amenaza hacia los trabajadores Agapitov, ha justificado no solo el envío de esta carta, sino el empleo de la Inteligencia Artificial para tomar estas decisiones. “Queremos que todos nuestros empleados piensen diariamente en cómo sus acciones y decisiones afectan el destino y el éxito de la empresa porque tenemos metas muy ambiciosas para los próximos años; es uno de los valores de Xsolla y se refleja en todo, desde los estándares operativos hasta el sistema de compensación”. Desde ya, los despidos afectaron sólo a empleados rasos y no a los ejecutivos de la compañía.

Según el propio CEO una de las ventajas de trabajar de forma remota es que todas las acciones de los usuarios están digitalizadas. «Dado que nuestros programas nos permiten extraer una gran cantidad de datos, podemos entender la pasión de las personas, su interés por el futuro de la empresa, cómo pasan su tiempo de trabajo, etc.». El empresario admite utilizar distintas herramientas para monitorear y controlar a sus empleados más allá de la privacidad mínima.

People analytics, o la aplicación de IA en los procesos de recursos humanos

Prácticas como aplicar tecnologías como la inteligencia artificial a procesos de recursos humanos no son nuevas, y tienen resultados dispares. Pueden potenciar el trabajo de los empleados, resultar en violaciones flagrantes a su privacidad o despidos masivos «porque así lo dispusieron los Datos que extrajimos de ustedes», como Agapitov.

En el informe Artificial Intelligence in the Workplace: What is at Stake for Workers? la investigadora británica Phoebe Moore (BBVA Openmind, 2019) analiza como es que desde gerencias de recursos humanos utilizan los datos personales extraídos desde las computadoras que usan los empleados para hacer pronósticos y proyecciones sobre comportamiento, estabilidad y -claramente- productividad durante la jornada. Los datos se colectan de la actividad de candidatos y trabajadores y se analizan actividades, horarios, redes sociales e inclusive sentimientos y movimientos físicos.

Ésta técnica se denomina People analytics. Cuando los datos recaudados, y el big data es lo suficientemente grande, se utilizan para entrenar a los algoritmos que predicen talentos y capacidades, monitorean el rendimiento y resultados, estados de ánimo y emociones, buscar y predecir patrones de comportamiento de los empleados e inclusive redactar contratos de trabajo. Se utilizan los datos para individualizar perfiles y proyectar liderazgos, para decidir a quien contratar. O a quien despedir. Ésta es una técnica muy extendida ya entre las grandes empresas tecnológicas, pero de otros rubros que también invierten recursos fuertes en tecnología de punta, en EEUU, Europa o China.

No se trata de un fenómeno nuevo el de estudiar las formas de llevar al máximo el rendimiento y la productividad de los trabajadores. Ya desde fines del siglo XIX y principios del XX por Frederick Taylor, Henry Ford, Elton Mayo o el método Kaizen de Toyota desarrollaron técnicas para medir, evaluar y organizar el trabajo en las industrias y empresas. Pero ésto es algo nuevo, a otra escala.

Moore, que además es autora de Augmented Exploitation, artificial intelligence, automation and work e investigadora especialista en la materia de tecnología y trabajo, sostiene que el riesgo ahora reside en entregarle la toma de decisiones a «las máquinas». La diferencia y el riesgo del que alerta Moore en el uso de la IA y otras formas de desarrollo e innovación tecnológicas en los espacios de trabajo, es que la inteligencia de las máquinas autónomas es cada vez más tenida en cuenta no ya como sugerencias o fundamento en que basar determinaciones sino como decisiones inapelables que acatan los propios ejecutivos.

Mientras las máquinas tiene más memoria y capacidad de procesar información que nunca, y «aprenden» a pensar y razonar como las personas, carecen totalmente de empatía o de capacidad de entender la cultura del lugar donde el trabajo se desarrolla. Las máquinas, explica Moore, no pueden discriminar intencionalmente, pero si las decisiones que se toman en determinada empresa son discriminatorias la máquina aprenderá ese comportamiento. Por caso, si en la empresa sólo contratan hombres de determinada procedencia y no mujeres u otros perfiles, y si los despidos más frecuentes son de mujeres, personas de alguna minoría o empleados de las escalas más bajas, el algorítmo estará entrenado con esos datos, y consecuentemente, las decisiones que de ellos se desprendan serán discriminatorias, sea para contratar o despedir empleados y colaboradores.

Ésto es lo que sucedió en Xsolla, la empresa mencionada más arriba que sirvió de disparador a éste artículo. Su CEO, Agapitov, tomó la decisión de despedir un quinto de la nómina de empleados a partir de los datos que extrajo de los equipos de los mismos colaboradores. Como aclaran las notas periodísticas citadas, nadie de la jerarquía media y alta de la empresa padeció consecuencias ni fue desvinculada. Será que ninguno de ellos pierde tiempo -minutos, horas- en Facebook u otras plataformas. ¿Despedidos por el algorítmo? No, por una decisión humana.

¿Qué dice la Ley de Teletrabajo argentina al respecto?

La Ley 27555 del Régimen Legal de Contrato de Teletrabajo, en sus artículos 15 y 16, establece la forma implementar los sistemas de control y la preservación de la privacidad de los trabajadores remotos.

Según la Ley sancionada en 2020, en cuyos debates participó Unión Informática, los sistemas de control para proteger los bienes e informaciones del empleador deben contar con participación sindical para salvaguardar la intimidad de la persona que trabaja bajo la modalidad de teletrabajo y la privacidad de su domicilio.

El empleador debe tomar las medidas necesarias, especialmente en lo que se refiere a software, para garantizar la protección de los datos utilizados y procesados por la persona que trabaja bajo la modalidad de teletrabajo. El texto de la misma ley deja explícitamente asentado que el empleador no puede usar software de vigilancia que viole la intimidad del trabajador. La participación sindical es clave para preservar los derechos y hacer cumplir la norma y legislación laboral.

Tags:

Abrir chat
¡Hola! ¿Como estás? Hacenos tu consulta para afiliarte, salarios, y beneficios por Whatsapp de lunes a viernes de 9 a 18!