I reparti delle risorse umane delle aziende utilizzano l’intelligenza artificiale per gestire la mole delle candidature che ricevono ogni giorno. Per aggirare il filtro delle tecnologie, come gli ATS alcuni candidati arrivano ad usare trucchi, come il “white fonting“, ovvero copiare e incollare gli annunci di lavoro nei curriculum, per cercare di rendere la propria candidatura “appetibile” ai bot di intelligenza artificiale.
Infatti, talvolta i candidati qualificati, possono essere filtrati dal processo di assunzione prima che le loro candidature siano visti dai recruiters. L’uso di tecnologie come gli ATS, o sistemi di tracciamento dei candidati, è ormai presente nelle grandi aziende. Lo studio “Lavoratori nascosti: talenti non sfruttati” della Harvard business school ha rilevato che il 63% delle imprese esaminate in Germania, Stati Uniti e Regno Unito utilizza i sistemi ATS per la selezione delle risorse umane.
L’intelligenza artificiale può scartare candidati idonei
Secondo Manjari Raman, una delle ricercatrici che hanno condotto lo studio e Senior program director managing for the Future of work project della Harvard business school ha spiegato che le aziende cercano di ottimizzare i tempi della selezione di un numero molto alto di candidati, “Ma quando il sistema automatizzato ha la responsabilità di prendere migliaia di candidati e di filtrarli fino alle cinque scelte migliori… Beh, allora succede che la tecnologia scarta molti lavoratori che potrebbero lavorare in quella posizione, con competenze elevate o medie, e questo è un problema“.
Quindi essere dei candidati qualificati ed idonei ad una determinata posizione lavorativa non è sufficiente per essere contattati per il colloquio. Nel 2018 Amazon ha scoperto che gli ATS che stava sviluppando da quattro anni assegnava ai candidati qualificati di sesso femminile un punteggio inferiore alle loro controparti maschili.
Esempi di scelte discriminatorie dell’IA
Secondo Kerry McInerney, ricercatrice del Leverhulme centre for the future of intelligence dell’Università di Cambridge, l’intelligenza artificiale può fare scelte discriminatoria, anche quando è programmata per agire diversamente. La ricercatrice McInerney ha riferito a Euronews: “Una delle affermazioni che le aziende fanno sugli strumenti di assunzione basati sull’IA è che, a differenza di un reclutatore umano, non vedono il genere e non vede la razza o altre caratteristiche che ci riguardano. Ma sono molto scettica sull’idea che le tecnologie siano intrinsecamente più obiettive, perché alla fine sono addestrate sugli stessi dati distorti prodotti dai reclutatori umani“. La ricercatrice ha aggiunto che, per questo motivo, molte aziende “stanno investendo le loro risorse nell’acquisto di strumenti che non funzionano, piuttosto che investire in strategie di diversità e inclusione collaudate e reali che sappiamo essere efficaci”.
I tentativi di regolamentazione dell’intelligenza artificiale
L’Unione Europea intende regolamentare e disciplinare l’intelligenza artificiale che potrebbero diventare lo standard de facto per i Paesi del mondo a causa delle dimensioni del blocco di 27 nazioni e del suo mercato. Negli Stati Uniti, la città di New York sta lavorando a una legge che costringerebbe le aziende ad avvisare i candidati che le loro candidature filtrate dai sistemi applicativi dell’intelligenza artificiale.
Invece, lo stato dell’Illinois ha già emanato una legge che impone alle aziende di informare le persone e ottenere il loro consenso. Anche la Cina sta elaborando una normativa che richiede una serie di valutazioni di sicurezza per tutti i prodotti che utilizzano l’IA, mentre l’Autorità di vigilanza sulla concorrenza del Regno Unito ha avviato una revisione del mercato.