Tecnóloga Lucía Velasco: «Hay algoritmos que recomiendan hombres para puestos directivos solo porque históricamente ellos los han ocupado»

Economista y experta independiente de la Comisión Europea que actualmente dirige el Observatorio Nacional que estudia el impacto de la Tecnología en la Sociedad (ONTSI)

Tecnóloga Lucía Velasco: «Hay algoritmos que recomiendan hombres para puestos directivos solo porque históricamente ellos los han ocupado»

Autor: Pedro Guzmán

Lucía Velasco acaba de publicar en la editorial Turner un libro que te cuenta algo que probablemente sospechabas que llegaría, pero que ya está entre nosotros y es de todo menos bonito. La revolución digital que ha sacudido nuestro mundo está dejando en manos de operaciones matemáticas, los famosos algoritmos, no solo la forma en que consumimos o encontramos pareja (que no es poco), también nuestras posibilidades de encontrar empleo, o de perder el que tenemos, nuestro éxito o fracaso en el mundo laboral.

El libro se llama ‘¿Te va a sustituir un algoritmo?’ y tú estás pensando: «Buah, esto no va conmigo, ya le tocará a las generaciones que vienen lidiar con ese becerro…». Pero el caso es que a quien más le va a afectar no es a la siguiente generación, que será cien por cien nativa digital, sino a ti, que tienes un trabajo ‘convencional’, por ejemplo, en el campo administrativo o en educación o en información o… Nada menos que la mitad de los puestos de trabajo actuales podrían caer en manos de la automatización para 2025, aquí, a la vuelta de la esquina.

A Lucía Velasco, economista y experta independiente de la Comisión Europea que actualmente dirige el Observatorio Nacional que estudia el impacto de la Tecnología en la Sociedad (ONTSI) el tema le preocupa tanto que ha escrito este libro no solo para que nos enteremos, sino para que hagamos algo.

Y ese algo es protegernos. Especialmente las mujeres que, como siempre (ya aburre), tanto por el tipo de puestos de trabajo que ocupamos mayoritariamente, como por el hecho de que los algoritmos los diseñan sobre todo hombres y vienen (sí, también ellos) con sesgo de género -luego hablamos del tema- estamos en una posición de mayor vulnerabilidad.

Egoístamente, ya que estoy hablando con una experta de tal calibre, empiezo por preguntarle a Lucía Velasco si a mí misma, Silvia Nieto, periodista, me va a sustituir un algoritmo. «Sustituir es una palabra muy grande. Probablemente convivas con ellos y terminen realizando muchas de las tareas que hoy haces tú, especialmente las más repetitivas o con poco espacio para la creatividad. Cada vez que veo la cantidad de correos que he recibido en la bandeja de entrada suspiro por un algoritmo que me los lea y organice ¿tú no?».

Bueno, yo preferiría tener un manager que se encargase de decir ‘no’ por mí, como contaba en mi último artículo, pero agradezco el optimismo. Aunque el panorama no es que pinte de color rosa, precisamente, por ejemplo en los procesos de selección de personal. «Hemos conocido casos de algoritmos que han recomendado a hombres frente a mujeres para puestos directivos por el mero hecho de que históricamente los directivos han sido hombres; que han determinado para una mujer un límite de crédito 20 veces menor que el de un hombre o que han traducido automáticamente nurse por enfermera o lawyer por abogado (asignando un género a cada profesión)», explica Lucía Velasco. Y añade: «Pasa también con el reconocimiento de voz que usan los teléfonos, en muchas ocasiones no reconoce las voces femeninas porque ha sido entrenados con voces masculinas».

LOS SESGOS SEXISTAS DE LOS ALGORITMOS

Detectar y denunciar este tipo de sesgos, explica la experta, es el primer paso para defendernos, las mujeres, de un ‘futuro algorítmico’ de corte sexista. «Y después, participar en su diseño para garantizar que nuestro punto de vista se tiene en cuenta cuando se crea y entrena al sistema. Es muy importante dar visibilidad a los sesgos que se detectan para que seamos conscientes de que este es un problema real y que si no se establecen procesos de auditoría algorítmica van a replicarse en todos aquellos lugares donde se introduzcan algoritmos en la toma de decisiones».

Pero es que al margen del ‘asuntillo’ del algoritmo sexista, que desde luego urge resolver, hay otros donde también están implicados algoritmos que van a afectar en masa, o que ya afectan, a personas en situaciones tan críticas como la búsqueda de empleo.

ENTREVISTAS DE TRABAJO CON INTELIGENCIA ARTIFICIAL

En el mundo de los Recursos Humanos se percibe desde hace pocos años un desbordante entusiasmo por la implementación de la Inteligencia Artificial (IA) en los procesos de selección de personal (si me permitís, no entiendo muy bien tanta fanfarria, cuando los primeros que van a estar amenazados por la IA son los que trabajan en Recursos Humanos…). Desde el punto de vista del trabajador, lo que se percibe es más bien lo contrario. Un ejemplo: casi el 20% de los encuestados por la 10ª Encuesta de Percepción de la Ciencia está convencido de que en 15 años una IA o un robot podría sustituirles en su trabajo.

«En Estados Unidos hay sistemas que utilizando el reconocimiento facial hacen directamente las entrevistas y analizan desde las expresiones del candidato hasta las palabras que utiliza», dice Lucía Velasco. «No me imagino contratando a una persona sin ser yo la que habla con ella y adaptando la entrevista a la situación real que ambas vivimos en ese preciso momento. Las máquinas no saben improvisar», añade. Y se lo agradecemos.

Ella, por su parte, es contraria al uso de sistemas automáticos con capacidad de decisión en los procesos de selección. «Incluso en la primera fase, siempre deberíamos estar seguros de que se introducen elementos de diversidad para no acabar con réplicas de personas con el mismo CV», explica. Y añade: «Imagínate que solo acabamos entrevistando a personas que hayan estudiado en una universidad privada con clases en inglés, estaríamos discriminando y negando oportunidades a muchísima gente. Otra cuestión distinta es que los algoritmos asistan en el proceso y hagan recomendaciones, para evitar los sesgos cognitivos de las propias personas que seleccionan».

¿QUÉ HACEMOS ENTONCES?
El caso es que parece que al final hasta vamos a echar de menos al tipo del traje y rostro amablemente glacial que tomaba notas de lo que respondíamos (¿y si a lo mejor solo hacía garabatos?) en las entrevistas de trabajo clásicas. A ver qué haces para caerle bien a un algoritmo. Y, sobre todo, ¿qué le podemos recomendar a esa chica que está a punto de elegir carrera universitaria o a esa mujer que se plantea cambiar de profesión a la vista de esta nueva realidad? «Yo le diría», explica Lucía Velasco, «que busque algo con lo que se sienta motivada, pero que no se olvide de mirar también en el ámbito tecnológico por si estuviera ahí. A veces descartamos opciones por ideas preconcebidas y en el mundo tecnológico hay infinitas posibilidades para conectar con propósitos vitales, desde la filosofía, la sostenibilidad, la ayuda al desarrollo o las criptomonedas».

GOBIERNOS CONTRA ALGORITMOS, ¿UNA NUEVA UTOPÍA?
Vale, eso por nuestra cuenta, pero ¿y los gobiernos? ¿No deberían proteger de alguna forma a sus ciudadanos de los peligros tecnológicos que ya no solo los acechan sino que se les han venido encima sin que nadie les haya enseñado a defenderse? «Los gobiernos pueden y deben proteger a la ciudadanía, aunque sea en materias relativamente novedosas o complicadas de regular», opina la directora del ONTSI. «Lo vimos con el Reglamento General de Protección de Datos hace unos años y lo vamos a volver a ver con el paquete de regulación digital de la Unión Europea en el que trabajan todos los estados miembros. El reto va a estar en hacer que se cumpla la regulación. Hay que poner límite al salvaje oeste digital que ha crecido sin control».

Fuente El Mundo


Reels

Ver Más »
Busca en El Ciudadano