La capacità delle intelligenze artificiali di individuare un pedone potrebbe essere condizionata da un pregiudizio razziale. A rivelarlo è uno studio pubblicato da un gruppo di ricercatori del Georgia Institute of Technology, che hanno verificato la capacità degli algoritmi che governano le automobili a guida autonoma di rilevare un pedone in base al colore della pelle. Secondo i test condotti dagli studiosi, il rilevamento dei pedoni dalla pelle scura è stato meno accurato del 5 per cento rispetto a quello dei pedoni di colore chiara, a causa di un pregiudizio nei casi studiati dall’intelligenza artificiale.
Come fa un algoritmo a essere razzista
Le intelligenze artificiali hanno la caratteristica di imparare dalle informazioni che vengono loro fornite. Nello specifico, sistemi il cui ambito di analisi è visivo, come quelli delle automobili a guida autonoma, imparano a riconoscere gli oggetti sulla base di grandi set di dati con i quali vengono addestrati.
Per svolgere la loro ricerca, gli autori dello studio hanno utilizzato archivi di immagini di pedoni pubblicamente disponibili e ne hanno diviso i soggetti sulla base della scala Fitzpatrick, metro di misurazione del colore della pelle.
Successivamente gli studiosi testato otto diversi sistemi di riconoscimento delle immagini, verificando che questi erano significativamente più capaci di riconoscere i soggetti dalla pelle chiara rispetto a quelli dalla pelle scura.
Il problema è nei dati
Tuttavia, l’esperimento è stato condotto su intelligenze artificiali utilizzate in ambito accademico e non sugli algoritmi effettivamente impiegati in ambito automobilistico, dal momento che non vengono messi a disposizione del mondo accademico. La ricerca inoltre non è stata sottoposta a peer-review. Come ha commentato su Twitter Kate Crawford, condirettrice del Now Research Institute sulle intelligenze artificiali, “in un mondo ideale gli accademici testerebbero i modelli e i dati utilizzati effettivamente dalle case automobilistiche. Ma dal momento che non sono mai stati resi disponibili (un problema di per sé), studi come questo offrono un’idea rilevante di quali siano i veri rischi”.
I agree - in an ideal world, academics would be testing the actual models and training sets used by autonomous car manufacturers. But given those are never made available (a problem in itself), papers like these offer strong insights into very real risks.
— Kate Crawford (@katecrawford) February 28, 2019
Come prevenire i pregiudizi algoritmici
Come evidenziato nello studio, il problema principale è di far sì che l’intelligenza artificiale venga istruita sulla base di dataset più inclusivi. Se gli archivi di informazioni con le quali l’algoritmo viene istruito hanno una maggiore presenza di persone dalla pelle bianca, il processo di machine learning (autoapprendimento della macchina), farà sì che siano soprattutto questi a essere riconosciuti. A tal proposito, come evidenziato anche da Vox, una soluzione potrebbe essere quella di creare team di ricercatori specificamente eterogenei per genere e colore della pelle. In questo modo potrebbero essere gli stessi ricercatori a riscontrare e correggere i potenziali bias (pregiudizi) in cui potrebbero incorrere i sistemi di guida autonoma.