Il rischio di una deriva razzista nel riconoscimento facciale

Le tecnologie AI applicate all'identificazione dei volti sbagliano con maggiore probabilità con le persone di origine africana o asiatica.

di Luca De Biase

Sarebbe stato comodo per i consumatori avere una tecnologia in grado di rendere facile il riconoscimento delle persone e per esempio accelerare il processo di accettazione in aereo o in albergo, in ufficio o casa. Sarebbe stato comodo per la polizia usare il riconoscimento facciale nelle situazioni di particolare pericolo per la sicurezza. Tutte le volte che occorre un documento identificativo, un riconoscimento facciale poteva essere una soluzione veloce e facile. In fondo, l’intelligenza artificiale del riconoscimento delle immagini è tra le più avanzate. O no?

 

Il problema è che l’intelligenza artificiale applicata al riconoscimento facciale, come del resto applicata a qualunque altra cosa, è basata su una scienza probabilistica che fa errori dovuti ai suoi algoritmi e alla base di dati che utilizza. Nel caso del riconoscimento facciale il livello di errore sta diventando inaccettabile.

 

Non solo perché fa molti errori e, in alcuni casi, conduce all’arresto di innocenti che la macchina ha scambiato per terroristi. Ma soprattutto perché fa errori ingiusti. È provato per esempio che sbaglia con maggiori probabilità se la faccia appartiene a una persona di origine africana o asiatica e con minori probabilità se il viso è caucasico.

 

I governi potrebbero essere costretti a bloccare il dispiegamento di questa tecnologia. Oppure gli scienziati potrebbero decidere collettivamente una moratoria sull’uso del machine learning per il riconoscimento facciale, viste le gravi conseguenze dei possibili errori. 

 

La discriminazione razziale come scelta ideologica si dimostra già abbastanza pesante. Non si vede perché aggiungere alla cultura retriva dei razzisti anche la discriminazione razziale automatizzata da algoritmi sbagliati e dati distorti. Anche perché, a qualcuno, può sembrare che il computer e il calcolo automatico servano a giungere a conclusioni più fondate sui dati e meno soggettive: non è così. E in prospettiva ci si accorgerà che non può essere così.

 

Leggi l’articolo

Should Government Halt the Use of Facial-Recognition Technology? - The Wall Street Journal

 

di Luca De Biase, giornalista

Lunedì 22 Giugno 2020