La inteligencia artificial (IA) ha llegado con fuerza a los departamentos de recursos humanos. Cada vez más empresas utilizan sistemas automatizados para hacer cribado de currículos, analizar perfiles profesionales o hacer entrevistas virtuales con análisis de voz y expresión facial. Estas herramientas prometen objetividad, rapidez y eficiencia. Pero, como cualquier tecnología, no son neutrales. La IA puede reproducir – e incluso amplificar- los sesgos de género si no se revisa y diseña con criterios de igualdad.
Cuando el algoritmo discrimina (sin querer)
Un caso muy conocido es el de Amazon, que tuvo que retirar un sistema de selección automatizado porque penalizaba los currículos de mujeres. ¿El motivo? El algoritmo había aprendido de un conjunto de datos histórico en el que predominaban hombres en posiciones técnicas y directivas. En consecuencia, valoraba menos palabras asociadas a perfiles femeninos o experiencias en espacios considerados “no masculinos”. De hecho, el sistema bajaba la puntuación de currículos que contenían palabras como “women’s”, como por ejemplo “women’s chess club captain”.
Este ejemplo no es único. Las IA aprenden de lo que les damos: si las alimentamos con datos sesgados, producirán resultados sesgados. Y esto puede afectar gravemente el acceso de las mujeres – y otros colectivos infrarepresentados- a ciertos trabajos o responsabilidades.
Existen otros casos que han generado controversia en los últimos años y ponen sobre la mesa los riesgos de una IA sin perspectiva de género:
- El mismo LinkedIn reconoció que sus algoritmos de recomendación de empleo sugerían menos posiciones directivas a mujeres con perfiles iguales a los de los hombres.
- Un estudio de Harvard mostró que sistemas de reconocimiento facial fallaban más a menudo al identificar mujeres racializadas.
- En China, plataformas de búsqueda de empleo usaban IA que daba prioridad a hombres para puestos de ingeniería e informática.
Los sesgos en los procesos de selección automatizados
Los sesgos pueden aparecer en diferentes momentos de los procesos de selección automatizados:
- Cribado de currículos: El algoritmo puede valorar más determinadas trayectorias, palabras clave o tipos de experiencia, invisibilizando candidaturas igual de válidas pero menos «convencionales».
- Análisis de voz o vídeo: Algunas herramientas pueden asociar erróneamente ciertas características de comunicación, como una voz más aguda, una gesticulación más expresiva o una actitud excesivamente amable, a conductas «menos profesionales» o menos adecuadas para ciertos puestos de trabajo. Estas herramientas tienden a identificar el modelo masculino como el estándar ideal y penalizan todo lo que no encaje en este patrón.
- Recomendación de perfiles: Los algoritmos pueden dar preferencia a perfiles que replique la estructura actual de la empresa, perpetuando así la endogamia y la falta de diversidad.
¿Cómo podemos evitar estos sesgos?
1. Revisar los datos con los que se entrena el sistema
Si contratas un proveedor externo de IA, pide información sobre el origen de los datos y los criterios de entrenamiento. Los datos históricos deben ser diversos y representativos para evitar sesgos sistemáticos.
2. Combinar la tecnología con criterios humanos
La automatización puede ser útil para hacer una primera selección, pero las decisiones finales deben ser humanas y formadas en igualdad. Además, es clave que las personas responsables conozcan cómo funciona la herramienta y revisen los resultados con mirada crítica.
3. Auditar los algoritmos periódicamente
Al igual que revisamos los planes de igualdad o las políticas retributivas, se deben establecer mecanismos de control de los sistemas de IA. Existen herramientas y profesionales que pueden hacer auditorías algorítmicas para detectar sesgos.
4. Introducir criterios de género y diversidad en la programación
Es posible incorporar valores de equidad desde el diseño. Por ejemplo, asegurando que no se penalicen trayectorias laborales con interrupciones por cuidados o que se valore la experiencia en entornos feminizados con el mismo criterio que en entornos masculinizados.
5. Formar al equipo de selección en mirada de género y uso ético de la IA
La tecnología no sustituye la formación. Es fundamental que los equipos de RRHH tengan herramientas para identificar posibles discriminaciones, cuestionar los resultados de la IA y hacer procesos más transparentes y justos
Conclusión
La inteligencia artificial tiene un gran potencial para mejorar los procesos de selección, pero es fundamental ser conscientes de los riesgos que comporta si no se diseña y utiliza adecuadamente. La IA puede amplificar los sesgos de género si los sistemas no se programan con criterios éticos y responsables. Para evitarlo, es necesario garantizar que los algoritmos sean auditados, que los datos sean representativos y que los criterios de selección fomenten la igualdad de oportunidades.
A pesar de su eficacia, la tecnología no puede sustituir los criterios éticos ni la perspectiva de género. Si queremos avanzar hacia una igualdad real en el mercado laboral, debemos poner la tecnología al servicio de las personas, y no al revés. Es esencial mantener un control humano para garantizar que la IA contribuya a una transformación justa y equitativa.