AGI - Così ha deciso, l'udienza è tolta. Un team di ricercatori cinesi ha sviluppato una sorta di pubblico ministero cibernetico: analizzando la descrizione verbale di un caso, è in grado di formulare un'accusa grazie all'intelligenza artificiale. La tecnologia, testata dalla procura di Shanghai Pudong, promette un'accuratezza “superiore al 97%” ed è utilizzabile con un normale pc.
Come funziona il pm artificiale
Un sospetto verrebbe analizzato ed eventualmente accusato sulla base di un migliaio di “tratti”. Cioè informazioni estratte dall'intelligenza artificiale che, nella maggior parte dei casi, sfuggono all'uomo. In fondo è questo il valore aggiunto dell'AI: analizzare così tanti dati da individuare informazioni dove la mente umana vede solo disordine.
La macchina deve, come sempre, prima apprendere. È stata addestrata con più di 17 mila casi giudiziari dal 2015 al 2020. Finora, è in grado di identificare un'ipotesi e di formulare un'accusa per gli otto reati più comuni a Shanghai: frode con carta di credito, gioco d'azzardo, guida pericolosa, lesioni, atti contrari ai doveri d'ufficio, furto, frode e “provocare liti e creare problemi” (un'accusa vaga che – come sottolinea il South China Morning Post – è utilizzata soprattutto per soffocare il dissenso). Analisi dopo analisi, il pubblico ministero artificiale dovrebbe diventare sempre più competente, tanto da potersi allargare anche ad altre fattispecie.
L'AI in aula
Secondo il capo-progetto Shi Yong, direttore del laboratorio dei big data dell'Accademia cinese delle scienze, la tecnologia potrebbe ridurre il carico di lavoro quotidiano dei pubblici ministeri, consentendo loro di concentrarsi su incarichi e mansioni più complessi.
In ambito legale e giudiziario, l'idea non è nuova. McKinsey Global Institute ha stimato che, negli Stati Uniti, l'automazione potrebbe sostituire il 69% del lavoro fatto dagli assistenti legali, il 23% di quello degli avvocati e (caso che riguarda più da vicino la tecnologia cinese) il 16% del carico dei magistrati.
Studi e applicazioni concrete sono già qui. Nel 2018, LawGeex e tre università americane hanno chiesto a un software e a venti avvocati di analizzare degli accordi di riservatezza per individuare eventuali criticità. Risultato: l'accuratezza dell'intelligenza artificiale è stata del 94%, contro l'85% degli avvocati. Si trattava però di contrattualistica, non di reati. Nel 2019, in Cina l'intelligenza artificiale è arrivata in aula con “System 206”: giudice, accusa e difesa possono chiedere di spulciare e visualizzare su schermo prove e documenti, dalle perizie ai video. Ma, di nuovo, si tratta di un assistente in grado di velocizzare il dibattimento, non di formalizzare un'accusa.
Se l'AI “decide”
Il procuratore cibernetico fa un passo in più, non di poco conto. Lo spiega il suo creatore, Shi: “Il sistema può sostituire in parte i pubblici ministeri nel processo decisionale”. Cioè non si limita a supportare le scelte ma può decidere di trasformare un sospettato in imputato. E qui arrivano i dubbi. Etici, legali, tecnologici. Come ha sottolineato un anonimo procuratore di Guangzhou al South China Morning Post, “l'accuratezza del 97% sarebbe anche alta dal punto di vista tecnico, ma lascia sempre una possibilità d'errore”.
È vero, anche i giudici umani sono fallibili: l'associazione Innocent Project stima, ad esempio, che una quota tra tra il 2,3 e il 5% dei detenuti statunitensi sia innocente. Ma, a differenza dei processi umani, l'intelligenza artificiale accetta un errore “matematico” come danno collaterale. In questi casi, poi, di chi sarebbe la responsabilità? Del pubblico ministero, dell'AI, di chi ha sviluppato l'algoritmo o di chi ha selezionato i dati da analizzare?
L'algoritmo non è uguale per tutti
L'intelligenza artificiale applicata alla legge (e quindi alla libertà degli individui) rappresenta l'emblema di un tema che riguarda molte applicazioni: la presunta terzietà della tecnologia, oggettiva perché capace di depurare l'analisi da emotività, preconcetti, ideologie. Se è vero che neppure i magistrati sono esenti da pressioni e condizionamenti, i casi che smentiscono la neutralità tecnologica si sprecano.
L'intelligenza artificiale - di suo - non ha preconcetti, non è né buona né cattiva. Ma rischia di riprodurre e amplificare le distorsioni contenute nell'archivio di cui si è nutrita. Le accuse, quindi, potrebbero essere influenzate dalle indagini e dai processi precedenti. Alcuni studi sul funzionamento dei sistemi di riconoscimento facciale, ad esempio, hanno dimostrato come ci sia un tasso di errori più elevato tra persone di colore e donne.
Il riconoscimento facciale riguarda soprattutto la fase delle indagini, ma ci sono precedenti anche in fase di giudizio. Compas è un software utilizzato da alcune corti statunitensi che valuta le probabilità di recidiva di un condannato, condizionando così la decisione sulla pena da comminare. Uno studio del 2018 ha dimostrato che la sua accuratezza è minore rispetto alle previsioni casuali fatte da individui senza alcuna esperienza legale.
Secondo un'inchiesta di Propublica del 2016, Compas ci ha azzeccato solo nel 61% dei casi, oltretutto con grandi differenze etniche: tra i condannati ritenuti “ad alto rischio”, è tornato a delinquere il 76,5% dei bianchi e il 55,1% dei neri. Il tasso di errore è stato quindi doppio per le persone di colore.
Distorsioni come questa, ha spiegato Joy Buolamwini, fondatrice della Algorithmic Justice League, un'associazione che stimola il dibattito sui rischi dell'AI, possono esporre alcuni individui con determinate caratteristiche “a controlli ingiustificati”. Ed è un problema che – ha aggiunto - non scompare “con l'aumento dell'accuratezza”, tanto più se l'intelligenza artificiale non si limita ad analizzare ma arriva a decidere. O, ancora peggio, a predire.