AGI - “Negli ultimi giorni, l’annuncio di Meta di abbandonare il fact-checking per un sistema basato sulle ‘Community Notes’ ha fatto discutere. È una mossa che molti vedono come rivoluzionaria, ma che in realtà nasconde un’ammissione implicita: il fact-checking non funziona. E non funziona da anni". Così Walter Quattrociocchi, direttore del Centro di Data Science and Complexity for Society (CDCS) della Sapienza, ha commentato la notizia che Meta modificherà le sue politiche di revisione dei contenuti su Facebook e Instagram, eliminando i fact checker terzi e sostituendoli con "note della community" generate dagli utenti.
Nel 2016, la società ha lanciato un programma di fact-checking indipendente, sulla scia delle affermazioni secondo cui non era riuscita a impedire ad attori stranieri di sfruttare le sue piattaforme per diffondere disinformazione e seminare discordia tra gli americani. Negli anni successivi, ha continuato a lottare con la diffusione di contenuti controversi sulla sua piattaforma, come disinformazione sulle elezioni, storie anti-vaccinazione, violenza e incitamento all'odio. L'azienda ha creato team di sicurezza, ha introdotto programmi automatizzati per filtrare o ridurre la visibilità di false affermazioni e ha istituito una sorta di Corte Suprema indipendente per le decisioni di moderazione più difficili, nota come Oversight Board.
Ma ora Zuckerberg sta seguendo le orme del collega leader dei social media Musk che, dopo aver acquisito X, allora nota come Twitter, nel 2022, ha smantellato i team di fact-checking dell'azienda e ha reso le etichette di contesto generate dagli utenti, chiamate note della community, l'unico metodo della piattaforma per correggere affermazioni false. “Già nel nostro lavoro Debunking in a World of Tribes – continua Quattrociocchi - avevamo mostrato che il fact-checking, lungi dall'essere una soluzione, spesso peggiora le cose, rafforzando la polarizzazione e consolidando le echo chamber. Eppure, nonostante queste evidenze, milioni di dollari sono stati spesi in soluzioni che chiunque con un minimo di onestà intellettuale avrebbe riconosciuto come fallimentari. Duncan Watts, in un recente articolo pubblicato su Nature, ha sottolineato come il discorso di intellettuali e giornalisti sulla disinformazione sia spesso scollegato dalla realtà. Si parla di fake news come se fossero il problema principale, ignorando completamente che è il modello di business delle piattaforme a creare le condizioni per cui la disinformazione prospera. La verità, nella sua accezione più ampia, è spesso ambigua, contestuale e soggetta a interpretazioni. Il fact-checking, così come è stato concepito, non può che fallire nel risolvere il problema della disinformazione, poiché si limita a contrapporre ‘etichette’ alla viralità emotiva dei contenuti. Le piattaforme social non sono progettate per essere strumenti di informazione, ma macchine per l'intrattenimento. Premiano ciò che cattura l’attenzione, che emoziona, che divide, perché è questo che genera engagement. Non è un sistema costruito per garantire la qualità dell’informazione, ma per massimizzare il tempo che le persone trascorrono online. Per anni, alcuni hanno cercato, ignorando le evidenze scientifiche, di mantenere il mondo dell’informazione come era prima dell’avvento dei social media. Il punto, però, è che non è mai stato possibile arginare questa trasformazione. Imporre dall’alto un modello di controllo non ha mai funzionato. Ne sappiamo qualcosa fin dai tempi del Sant’Uffizio, che con i suoi roghi di libri non ha certo impedito alla scienza di progredire”.
“L’unico antidoto possibile – conclude Quattrociocchi - e lo abbiamo visto chiaramente, è rendere gli utenti consapevoli di come interagiamo sui social. Non c’è altra strada. Una riflessione collettiva sul nostro comportamento online è la chiave per affrontare il problema alla radice. Come è stata fatta informazione su questi temi negli ultimi anni? Perché si sono ignorate le evidenze scientifiche? Quanti soldi sono stati gettati in iniziative che si sapeva fin dall’inizio essere prive di senso? E, soprattutto, chi paga per questi errori? Si parla tanto di data-driven policy, ma poi ignoriamo evidenze forti e consolidate per qualche motivo. Sarebbe interessante capire quale sia questo motivo”.