Le bufale non sono solo scritte. Viaggiano anche in foto e video. Ecco perché Facebook ha deciso di allargare il suo sistema di fact-checking anche alle immagini. Il sistema di verifica si basa sulla stessa filiera già utilizzata per gli articoli. Una collaborazione tra intelligenza artificiale per scandagliare il social network e umani, per verificare l'attendibilità delle informazioni.
Come funziona
Foto e video saranno quindi analizzati dai 27 partner di Facebook (in Italia l'unico è Pagella Politica) che, in 17 Paesi, già controllano i contenuti scritti. Ma Menlo Park ne sta selezionando altri per espandere la propria rete e, scrive in un post la product manager Antonia Woodford, “identificare e agire più velocemente contro diversi tipi di disinformazione”.
Facebook ha sviluppato un sistema di machine learning che elabora diversi segnali (tra i quali le indicazioni degli utenti) per scovare i contenuti sospetti. Li analizza o li spedisce ai partner, che saranno formati su tecniche di verifica specifiche per le immagini, da affiancare alle competenze giornalistiche e accademiche che già possiedono. Il responso dei collaboratori ha un doppio ruolo: oltre a quello di distinguere informazione attendibile e false, istruisce ulteriormente l'intelligenza artificiale, che apprende dalla propria esperienza e da quella umana.
Come saranno classificati i falsi
Il social network ha avviato la sperimentazione del fact-checking per le immagini lo scorso marzo. E, in base ai dati raccolti, “di solito” la disinformazione per immagini rientra in una di queste tre categorie: contenuti manipolati o artefatti, fuori contesto o testi e affermazioni semplicemente falsi. Facebook ha spiegato che foto e video-bufala si prestano a facili manomissioni e sono, allo stesso tempo, “particolarmente convincenti” proprio grazie al loro impatto visivo.
La viralità non ha una regola. I contenuti fake si diffondono in modi diversi, che variano da Paese a Paese. “Negli Stati Uniti, ad esempio, gli utenti affermano di vedere più disinformazione negli articoli. Mentre in Indonesia notano più immagini fuorvianti”. Tuttavia, aggiunge Facebook, sarebbe un errore ragionare per compartimenti stagni. “La stessa bufala può viaggiare attraverso diversi tipi di contenuti", che non possono essere trattati come "categorie distinte". È quindi "importante costruire difese contro la disinformazione attraverso articoli, foto e video”.
Rosetta, la cacciatrice di meme
La società di Mark Zuckerberg afferma anche di “lavorare su nuovi modi per rilevare se una foto o un video è stato manipolato”. Ma su questo punto non emergono dettagli. Woodford ricorda però che è già attivo (da pochi giorni) un sistema di riconoscimento ottico dei caratteri che non si limita a capire il significato di frasi e parole. Si chiama Rosetta ed è una cacciatrice di meme offensivi.
Cosa hanno di particolare rispetto a un articolo o a una fotografia? I meme sono una sfida complessa, per almeno due ragioni. Primo: il loro senso non è comprensibile senza il contesto e l'intreccio (spesso implicito) tra parole e immagini. Secondo: i 2,2 miliardi di utenti Facebook e il miliardo di Instagram postano in diverse lingua e hanno riferimenti culturali anche molto diversi. Per questo motivo, l'intelligenza artificiale di Rosetta è chiamata a un lavoro enorme: elaborare (anche per imparare sempre meglio) circa un miliardo di contenuti al giorno tra Instagram e Facebook. In modo da identificare “automaticamente” i contenuti che “ledono le politiche sull'incitamento all'odio”. Rosetta, quindi, prende sul serio i meme. Perché la disinformazione viaggia anche con toni leggeri.