Non ho visto né sentito il video che l’attentatore dello scuolabus avrebbe postato sul suo canale YouTube poco prima di entrare in azione, anticipando le sua intenzione di compiere un gesto eclatante. Ma qualcosa forse la possiamo già dire su come funzionano, o meglio, non funzionano i sistemi automatici che dovrebbero bloccare i contenuti inappropriati allertando gli investigatori in caso di pericolo. Anche nel caso della scorsa settimana, l’agguato in due moschee in Nuova Zelanda finito con un tragico bilancio di 50 morti, si era parlato della lentezza con cui le piattaforme digitali, in quel caso non YouTube ma Facebook, avevano reagito.
Ieri sera Guy Rosen, uno dei vice presidenti di Facebook, responsabile dell’integrità, che non so bene cosa faccia quindi, in un commento postato in rete ha ammesso che “gli strumenti di intelligenza artificiale hanno fallito” nell’obiettivo di segnalare il video in diretta della sparatoria. Semplicemente, l’algoritmo che la governa, non se n’è accorta. C’era un tale che sparava all’impazzata ammazzando chiunque incontrasse, e l’intelligenza artificiale non ha capito cosa stava accadendo.
Ora, chiarito (lo abbiamo fatto qualche giorno fa), che non sono i social media ad aver creato il terrorismo, che esiste da molto tempo prima, non si può non stigmatizzare il fallimento della decantata intelligenza artificiale. Che nei casi di YouTube e Facebook, immaginiamo essere il top della tecnologia disponibile.
Lo sappiamo tutti di cosa stiamo parlando: se provate a caricare in rete una canzone o un video protetto da copyright, la piattaforma ve lo impedisce; e se pubblicate una foto memorabile dove si vede un bambino vietnamita che fugge dopo una esplosione, idem, perché pedornografia; e lo stesso accade se caricate un quadro che ha un nudo d’autore.
Ascolta qui la telefonata di Adam (12 anni) alla mamma dallo scuolabus dirottato
Insomma, sanno come si filtra un contenuto. E a volte filtrano anche quelli che invece sono legittimi, come abbiamo visto. Eppure se qualcuno spara in diretta, l’algoritmo non se ne accorge, se uno minaccia un attentato nemmeno. Da qualche mese fra gli studiosi si è aperto il dibattito su quali siano i limiti dell’intelligenza artificiale, su quale etica debba avere, su quali compiti affidarle. Il dibattito è appena partito, ma la sintesi che ne è emersa per ora è che dobbiamo costruire sistemi che siano “meno artificiali e più intelligenti”. Less artificial, more intelligent. Nel frattempo rimettere al centro l’essere umano.