La prima volta in cui ho visto un video in cui parlava Obama, ma non era Obama, è stato un anno fa. Ero ad una conferenza internazionale e il ricercatore ci stava mostrando le meraviglie ma soprattutto i rischi dei deepfakes. Si tratta di video in cui è possibile essenzialmente fare due cose: far dire a qualcuno qualcosa che non ha mai detto (se pensate a Trump che dichiara guerra alla corea del Nord, non ci andate molto lontani visto che un deepfakes di Trump è già stato realizzato, dal partito socialista belga, sebbene con buone intenzioni); oppure aggiungere il volto di una persona al corpo di un’altra (e in questo caso le applicazioni riguardano soprattutto il mondo del porno). Nota: non si tratta di prodotti artigianali, o posticci, o collage di immagini. Sono perfetti. Credo che lo stesso Obama fatichi a distinguere il vero e il falso nel suo deepfake che nel frattempo è stato visto più di 5 milioni di volte.
Allora questa storia mi sembrò una cosa affascinante e spaventosa ma ancora piuttosto lontana dalle nostre vite reali. E invece mi sbagliavo.
Il giorno di Capodanno l’attrice Scarlett Johansson, vittima prediletta dei costruttori di deepfakes pornografici, ha dato una lunga intervista per dire in sostanza che la battaglia è perduta, che Internet è un gigantesco Far West in cui non puoi fare molto per difenderti se qualcuno prende la tua faccia e la mette sul corpo di una pornostar e quel video lo guardano milioni di persone allupate.
Non so se non possiamo fare nulla, so che dovremmo farlo. L’ultimo report sullo stato del deepfake (The State of Deepfakes, Reality Under Attack), dice che in un anno le pagine web che ne parlano sono cresciute di mille volte, che i video sui siti porno sono quasi diecimila (con tre siti dedicati), e che la comunità di sviluppatori che sviluppa il software per consentire a tutti di fare facilmente video analoghi cresce ogni giorno.
Per ora il fenomeno è piuttosto piccolo, è vero, ma oltre ai danni per chi ne è vittima, come Scarlett Johansson, i rischi sono grandi. C’è infatti una terza applicazione possibile oltre al porno e all’attribuzione a personaggi celebri di discorsi mai pronunciati: i ricercatori di Nvidia alla fine del 2018 sono usciti con uno studio in cui dimostrano quanto sia facile con questa tecnica creare infiniti profili di persone realistiche eppure inesistenti con le quali ricavare video falsi ma in grado di scatenare ogni tipo di reazione. (qui lo studio completo) Se avete tempo fate anche voi il test: all’inizio si mostrano qualche dozzina di foto di persone in primo piano con l’invito di rispondere alla domanda “quali sono quelle vere?”, ovvero le persone che esistono davvero? Risposta: nessuno di loro.
Scarlett Johansson (AFP)
Considerate per un istante l’impatto che hanno avuto delle “semplici” fake news” sulle elezioni americane e sulla Brexit e provate a immaginare cosa può accadere con dei video in cui a un personaggio famoso vengono fatte dire cose mai dette, oppure in cui a una persona inesistente, magari straniera, vengono fatti commettere reati.
Non è un caso la scelta dell’agenzia della Difesa americana (DARPA), di finanziare, già dal 2016, con 68 milioni di dollari, un gruppo di ricerca (MediFor) per contrastare il fenomeno usando a nostra vantaggio la tecnologia: ne fanno parte sette università di cui, bella sorpresa, anche due italiane, Siena e il Politecnico di Milano. L’idea, con le parole del direttore del progetto, Matt Turek, è “usare l’intelligenza artificiale per smascherare i falsi video”.
E’ una partita complicata, ma l’unica cosa che non possiamo fare è considerarla persa. Nel frattempo faremmo bene a recuperare l’antico adagio: non credo ai miei occhi. Ma attenzione: un mondo in cui non puoi credere a quello che vedi non è un mondo migliore.