Non è la persona che ti sta intervistando? New York prevede di limitare gli “intervistatori” dell’intelligenza artificiale

“Non siamo in grado di fornire un feedback specifico sui risultati del tuo colloquio.”

Negli Stati Uniti, sempre più datori di lavoro utilizzano l’intelligenza artificiale (AI) per accelerare il processo di reclutamento. Ma le persone in cerca di lavoro raramente sanno perché gli strumenti di reclutamento AI rifiutano i loro curriculum o come analizzare le loro interviste video. Quando perdono le elezioni, spesso possono ricevere solo un’e-mail così fredda, non sapendo perché hanno perso le elezioni.

▲ Immagine da: unsplash

Questo è inquietante. Che tipo di potere decisionale ha l’intelligenza artificiale nelle nostre carriere?

L’Associated Press ha riferito che all’inizio di novembre il Consiglio della città di New York ha approvato un disegno di legge con 38 voti contrari: se il sistema di reclutamento dell’IA non supera l’audit annuale, verrà bandito. L’audit annuale verificherà il sistema di reclutamento dell’intelligenza artificiale per la discriminazione razziale o di genere, consentendo ai candidati di lavoro di scegliere alternative come la revisione manuale e gli sviluppatori di intelligenza artificiale dovranno rivelare maggiori dettagli che non erano trasparenti in passato.

È interessante notare che sono gli sviluppatori di intelligenza artificiale che sono responsabili dell’audit annuale, ma il datore di lavoro sarà punito: se utilizzano un sistema di reclutamento dell’IA che non supera l’audit annuale, la sanzione massima per ogni violazione è di $ 1.500.

I sostenitori ritengono che il disegno di legge aprirà una finestra su algoritmi complessi. Gli algoritmi spesso classificano le abilità e le personalità in base a come parlano o scrivono i candidati, ma è dubbio che la macchina possa giudicare in modo accurato ed equo le caratteristiche della personalità e i segnali emotivi.Questo processo sarà più trasparente in futuro.

Per lo meno, ha senso sapere che “l’algoritmo viene rifiutato perché è distorto”.

La legge antidiscriminazione è guidata principalmente dalle denunce: se non sanno cosa gli è successo, nessuno può lamentarsi che gli sia stata negata un’opportunità di lavoro.

Anche la start-up Pymetrics sostiene molto questo disegno di legge, sostenendo l’uso dell’intelligenza artificiale per condurre interviste attraverso giochi e altri metodi e credendo che soddisfi i requisiti di equità. Allo stesso tempo, i programmi di interviste AI obsoleti verranno spazzati via. HireVue, un fornitore di sistemi di reclutamento di intelligenza artificiale, ha iniziato a eliminare gradualmente il suo strumento di scansione facciale all’inizio di quest’anno.Questo strumento è chiamato “pseudoscienza” dal mondo accademico, che ricorda la teoria frenologica del razzismo.

La maggior parte dell’opposizione al disegno di legge si basa su “questo è tutt’altro che sufficiente”. Alexandra Givens, presidente del Center for Democracy and Technology, ha sottolineato che la proposta in realtà richiede solo ai datori di lavoro di soddisfare i requisiti esistenti della legge statunitense sui diritti civili che vieta il reclutamento che ha effetti diversi sulla base di razza, etnia o genere, ma ignora il pregiudizio contro la disabilità o l’età.

▲ Immagine da: unsplash

E alcuni esperti di intelligenza artificiale e attivisti per i diritti digitali temono che il disegno di legge consenta solo agli sviluppatori di intelligenza artificiale di autocertificare di aver rispettato i requisiti di base e stabilisca solo standard deboli per i regolatori e i legislatori federali. vago.

Vale la pena notare che i bias non sono rari nelle interviste.Il problema principale risiede nell’algoritmo di alimentazione del campione, ma sono spesso collocati in una “scatola nera”, che è difficile da rilevare per i normali cercatori di lavoro.

Alcuni anni fa, Amazon ha interrotto il suo strumento di scansione del curriculum perché favoriva gli uomini in posizioni tecniche. Parte del motivo è che confronta le condizioni delle persone in cerca di lavoro con la forza lavoro qualificata maschile all’interno dell’azienda; allo stesso modo, se l’algoritmo trae nutrimento da settori in cui le differenze di razza e genere sono già comuni, allora sta solo consolidando il pregiudizio.

Questo pregiudizio non è solo assumere. Nell’aprile di quest’anno, un nuovo studio della University of Southern California ha mostrato che Facebook mostra annunci in modi che potrebbero violare l’Anti-Discrimination Act. Gli uomini hanno maggiori probabilità di vedere annunci di reclutamento di autisti di consegna pizza, mentre le donne hanno maggiori probabilità di vedere lo shopping pubblicizzare.

▲ Immagine da: unsplash

In sostanza, la discriminazione dell’intelligenza artificiale è coltivata dalla società umana e il comportamento prevenuto individuale è persino inconscio e potremmo non esserne consapevoli noi stessi. Se si confronta un’azienda con meno pregiudizi con un’azienda con gravi pregiudizi, ci sono generalmente due ragioni: la prima è migliore nell’eliminare deliberatamente i pregiudizi, e la seconda è migliore nel raccogliere uno status quo irragionevole e perpetuarlo.

Pertanto, l’opinione neutrale ritiene che la parte migliore della proposta di New York City siano i suoi requisiti di divulgazione per far sapere alle persone che vengono valutati dall’IA, come vengono valutati dall’IA e dove stanno andando i loro dati.

▲ Materiali di riferimento:
1.https://apnews.com/article/tecnologia-business-race-and-etnicity-razziale-ingiustizia-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d
2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9

 

L’uva non è l’unico frutto.

#Benvenuto a seguire l’account WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), i contenuti più interessanti ti verranno forniti il ​​prima possibile.

Ai Faner | Link originale · Visualizza commenti · Sina Weibo