
IA i biaixos de gènere: com evitar-los en els processos de selecció
La intel·ligència artificial (IA) ha arribat amb força als departaments de recursos humans. Cada vegada més empreses utilitzen sistemes automatitzats per fer cribratge de currículums, analitzar perfils professionals o fer entrevistes virtuals amb anàlisi de veu i expressió facial. Aquestes eines prometen objectivitat, rapidesa i eficiència. Però, com qualsevol tecnologia, no són neutres. La IA pot reproduir – i fins i tot amplificar- els biaixos de gènere si no es revisa i dissenya amb criteris d’igualtat.
Quan l’algoritme discrimina (sense voler)
Un cas molt conegut és el d’Amazon, que va haver de retirar un sistema de selecció automatitzat perquè penalitzava els currículums de dones. El motiu? L’algoritme havia après d’un conjunt de dades històric en què predominaven homes en posicions tècniques i directives. En conseqüència, valorava menys paraules associades a perfils femenins o experiències en espais considerats “no masculins”. De fet, el sistema baixava la puntuació de currículums que contenien paraules com “women’s”, com ara “women’s chess club captain”.
Aquest exemple no és únic. Les IA aprenen del que els donem: si els alimentem amb dades esbiaixades, produiran resultats esbiaixats. I això pot afectar greument l’accés de les dones – i d’altres col·lectius infrarepresentats- a certes feines o responsabilitats.
Existeixen altres casos han generat controvèrsia en els darrers anys que posen sobre la taula els riscos d’una IA sense perspectiva de gènere:
- El mateix LinkedIn va reconèixer que els seus algoritmes de suggeriment de feina recomanaven menys posicions directives a dones amb perfils iguals als dels homes.
- Un estudi de Harvard va mostrar que sistemes de reconeixement facial fallaven més sovint en identificar dones racialitzades.
- A la Xina, plataformes de cerca de feina van fer servir IA que donava prioritat a homes per a llocs d’enginyeria i informàtica.
Els biaixos en els processos de selecció automatitzats
Els biaixos poden aparèixer en diferents moments dels processos de selecció automatitzada:
- Recomanació de perfils: Els algoritmes poden donar preferència a perfils que repliquin l’estructura actual de l’empresa, perpetuant així l’endogàmia i la manca de diversitat.
- Cribratge de currículums: L’algoritme pot valorar més determinades trajectòries, paraules clau o tipus d’experiència, invisibilitzant candidatures igual de vàlides però menys “convencionals”.
- Anàlisi de veu o vídeo: Algunes eines poden associar erròniament certes característiques de comunicació, com una veu més aguda, una gesticulació més expressiva o una actitud excessivament amable, a conductes “menys professionals” o menys adequades per a certs llocs de treball. Aquestes eines tendeixen a identificar el model masculí com a l’estàndard ideal i penalitzen tot allò que no encaixi en aquest patró.
Com podem evitar aquests biaixos?
1. Revisar les dades amb què s’entrena el sistema
Si contractes un proveïdor extern d’IA, demana informació sobre l’origen de les dades i els criteris d’entrenament. Les dades històriques han de ser diverses i representatives per evitar biaixos sistemàtics.
2. Combinar la tecnologia amb criteris humans
L’automatització pot ser útil per fer una primera tria, però les decisions finals han de ser humanes i formades en igualtat. A més, és clau que les persones responsables coneguin com funciona l’eina i en revisin els resultats amb mirada crítica.
3. Auditar els algoritmes periòdicament
Igual que revisem els plans d’igualtat o les polítiques retributives, cal establir mecanismes de control dels sistemes d’IA. Hi ha eines i professionals que poden fer auditories algorítmiques per detectar biaixos.
4. Introduir criteris de gènere i diversitat en la programació
És possible incorporar valors d’equitat des del disseny. Per exemple, assegurant que no es penalitzin trajectòries laborals amb interrupcions per cures o que es valori l’experiència en entorns feminitzats amb el mateix criteri que en entorns masculinitzats.
5. Formar l’equip de selecció en mirada de gènere i ús ètic de la IA
La tecnologia no substitueix la formació. És fonamental que els equips de RRHH tinguin eines per identificar possibles discriminacions, qüestionar els resultats de la IA i fer processos més transparents i justos.
Conclusió
La intel·ligència artificial té un gran potencial per millorar els processos de selecció, però és fonamental ser conscients dels riscos que comporta si no es dissenya i utilitza adequadament. La IA pot amplificar els biaixos de gènere si els sistemes no es programen amb criteris ètics i responsables. Per evitar-ho, cal garantir que els algoritmes siguin auditats, que les dades siguin representatives i que els criteris de selecció fomentin la igualtat d’oportunitats.
Tot i la seva eficàcia, la tecnologia no pot substituir els criteris ètics ni la perspectiva de gènere. Si volem avançar cap a una igualtat real en el mercat laboral, hem de posar la tecnologia al servei de les persones, i no al revés. És essencial mantenir un control humà per garantir que la IA contribueixi a una transformació justa i equitativa.