
La paura che gli strumenti AI di assunzione aumentino i bias è legittima — ci sono casi pubblici dove è successo. Ma non è una proprietà dell'AI; è una proprietà di dati di training cattivi e design pigro. Fatto bene, l'AI screening riduce i bias rispetto alla revisione solo umana.
Tre cose devono essere vere perché funzioni: il modello deve essere cieco agli attributi protetti, il sistema deve mostrare spiegazioni per ogni decisione, e il team deve fare audit trimestrali di adverse-impact. Salta uno solo e torni a «umano o peggio».
La maggior parte delle piattaforme AI moderne supporta una «modalità blind» che rimuove nome, foto, età, genere e posizione dalla vista di screening. Attivala. Il pass-through di bias da queste feature è il singolo modo di fallimento più grande dell'AI hiring.
Prevedibilmente, i recruiter spesso resistono — sono abituati a vedere i nomi. Insisti. I dati sono schiaccianti: il blind screening porta avanti il 25–40% in più di candidati da gruppi sotto-rappresentati senza abbassare la qualità di assunzione.
La regola dei 4/5 dell'EEOC è il minimo regolatorio: il pass rate di un gruppo protetto non deve scendere sotto l'80% del rate del gruppo con il pass rate più alto. HRBlade esegue automaticamente questa analisi su ogni requisition; se usi un'altra piattaforma, fai i conti manualmente con R o Python e un CSV scaricato.
Quando trovi adverse impact, la risposta non è abbassare l'asticella — è capire quali feature hanno guidato la disparità. Il tooling AI moderno fornisce explainability per decisione (GDPR Article 22 lo richiede). Rimuovi le feature biased, ri-allena, fai di nuovo l'audit.

