Gli strumenti di reclutamento di lavoro basati sull'intelligenza artificiale potrebbero non migliorare la diversità delle assunzioni, sostengono gli esperti

Linea superiore

Gli strumenti di reclutamento di lavoro che affermano di utilizzare l'intelligenza artificiale per evitare pregiudizi di genere e razziali potrebbero non migliorare la diversità nelle assunzioni e potrebbero effettivamente perpetuare quei pregiudizi, hanno affermato domenica i ricercatori dell'Università di Cambridge, lanciando i programmi - che hanno attirato critiche in passato - come un modo per utilizzare la tecnologia per offrire una soluzione rapida per un problema più profondo.

ESPERIENZA

In un articolo pubblicato da Filosofia e tecnologia, i ricercatori hanno esaminato le affermazioni di diverse aziende che offrono strumenti di reclutamento basati sull'intelligenza artificiale, molte delle quali affermano di eliminare i pregiudizi e promuovere la diversità nascondendo i nomi, i sessi e altri identificatori dei candidati, e alcune delle quali classifica candidati sulla base di scansioni del curriculum, valutazioni online e analisi del linguaggio e delle espressioni facciali dei candidati.

I ricercatori, due professori presso il Center for Gender Studies dell'Università di Cambridge, hanno affermato che questi strumenti possono effettivamente promuovere l'uniformità nelle assunzioni perché riproducono pregiudizi culturali del "candidato ideale", che storicamente è stato il maschio bianco o europeo.

Gli strumenti inoltre potrebbero non migliorare la diversità perché si basano su dati aziendali passati e quindi possono promuovere candidati che sono più simili agli attuali dipendenti.

C'è "poca responsabilità per il modo in cui questi prodotti sono costruiti o testati", ha affermato in una dichiarazione Eleanor Drage, coautrice dello studio e ricercatrice del Center for Gender Studies dell'Università di Cambridge, aggiungendo che la tecnologia potrebbe fungere da "pericoloso" fonte di "disinformazione su come il reclutamento può essere 'distribuito' e reso più equo".

Citazione cruciale

"Affermando che il razzismo, il sessismo e altre forme di discriminazione possono essere rimossi dal processo di assunzione utilizzando l'intelligenza artificiale, queste aziende riducono razza e genere a punti dati insignificanti, piuttosto che sistemi di potere che modellano il modo in cui ci muoviamo nel mondo, Drage ha detto in una nota.

Tangente

Amazon ha annunciato nel 2018 che l'avrebbe fatto Stop utilizzando uno strumento di reclutamento basato sull'intelligenza artificiale per rivedere i curricula dei candidati al lavoro dopo aver scoperto che il sistema era fortemente discriminatorio nei confronti delle donne. Questo perché i modelli informatici su cui si basava sono stati sviluppati sulla base dei curricula presentati all'azienda negli ultimi 10 anni, che provenivano principalmente da candidati maschi.

Sfondo chiave

Le organizzazioni si sono rivolte sempre più all'intelligenza artificiale per aiutare a gestire i processi di assunzione di lavoro. In uno Sondaggio 2020 degli oltre 300 leader delle risorse umane citati dagli autori del giornale di domenica, la società di consulenza Gartner ha rilevato che l'86% dei datori di lavoro utilizza la tecnologia virtuale nelle proprie pratiche di assunzione, una tendenza che è accelerata da quando la pandemia di Covid-19 ha costretto molti a spostare il lavoro online. Mentre alcune aziende hanno sostenuto che l'IA può offrire un processo di assunzione più efficiente in termini di costi e tempi, alcune esperti avere essere trovato i sistemi hanno la tendenza a promuovere, piuttosto che eliminare, assunzioni di parte razziali e di genere replicando i pregiudizi esistenti dal mondo reale. Diversi legislatori statunitensi hanno Mirato per affrontare i pregiudizi nei sistemi di intelligenza artificiale, poiché la tecnologia continua ad evolversi rapidamente e esistono poche leggi per regolarla. La Casa Bianca è stata rilasciata questa settimana un "Blueprint for an AI Bill of Rights", che sostiene che gli algoritmi utilizzati nelle assunzioni sono stati trovati per "riflettere e riprodurre le disuguaglianze indesiderate esistenti" o incorporare nuovi "pregiudizi e discriminazioni". Il progetto, che non è legalmente vincolante o una politica ufficiale del governo, invita le aziende a garantire che l'IA non discrimini o violi la privacy dei dati e a informare gli utenti di quando la tecnologia viene utilizzata.

Che cosa da guardare

In un elenco di raccomandazioni, gli autori di Sunday's Filosofia e tecnologia il documento suggerisce che le aziende che sviluppano tecnologie di intelligenza artificiale si concentrano su disuguaglianze più ampie e sistematiche invece di "casi individualizzati di pregiudizio". Ad esempio, suggeriscono agli sviluppatori di software di esaminare le categorie utilizzate per ordinare, elaborare e classificare i candidati e in che modo queste categorie possono promuovere la discriminazione basandosi su determinati presupposti su genere e razza. I ricercatori sostengono inoltre che i professionisti delle risorse umane dovrebbero cercare di capire come funzionano gli strumenti di reclutamento dell'IA e quali sono alcuni dei loro potenziali limiti.

Fatto sorprendente

L'Unione Europea ha classificato il software di assunzione basato sull'intelligenza artificiale e gli strumenti di valutazione delle prestazioni come "ad alto rischio" nella sua nuova versione bozza quadro giuridico sull'IA, il che significa che gli strumenti sarebbero soggetti a un maggiore controllo e dovrebbero soddisfare determinati requisiti di conformità.

Letture consigliate

La DC vuole guidare la lotta contro i pregiudizi dell'IA (Axios)

Fonte: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/