I bot sui social network hanno un ruolo attivo e determinante nella diffusione di fake news e i metodi impiegati per attivarli su contenuti specifici hanno raggiunto un livello di precisione tale da indurre anche gli utenti umani seguirli nella diffusione di false informazioni. È il risultato di una ricerca pubblicata il 20 novembre da sei docenti della Indiana University, coordinati dall'italiano Filippo Menczer.
Lo studio ha analizzato 14 milioni di post che hanno diffuso su Twitter 400 mila articoli contenenti false informazioni e fake news durante la campagna per le presidenziali americane del 2016. Solo il sei percento degli account analizzati sono stati identificati come bot, ma a questi si deve il 31 percento della diffusione di disinformazione online e il 34 percento di tutti gli articoli contenenti fake news.
Questi post sono stati condivisi da gruppi coordinati di account che ne hanno permesso la diffusione su larga scala. Si tratta di falsi profili che si attivano contemporaneamente subito dopo la pubblicazione di un articolo, ne condividono in massa il contenuto e questo renderebbe "praticamente certa la loro natura di bot", si legge nella ricerca.
Questa tempistica, sostiene lo studio, è pensata per fare in modo che il contenuto pubblicato aumenti subito la sua probabilità di essere visto sui social e diventare virale. I bot analizzati sarebbero infatti anche in grado di coinvolgere utenti reali nella diffusione di fake news, ad esempio menzionando nei post utenti con molti follower, o inviando i link in messaggi diretti. Questo fa in modo che anche gli umani diventino "vulnerabili a queste manipolazioni, retwittando i bot che postano link con articoli e link dal contenuto falso o poco credibile".
Come fatto i bot a 'convincere' gli utenti reali
Le ragioni del successo sugli umani dei bot, fotografati da questo studio come protagonisti assoluti della diffusione delle fake news sui social, risiederebbe in un un "complesso mix di nostri pregiudizi cognitivi e sociali", oltre al ruolo degli algoritmi sui social che fanno emergere sulle timeline degli utenti reali i contenuti piu' condivisi. "Questo contribuisce alla vulnerabilità degli umani, facili da manipolare online con la disinformazione". Il motivo, si legge, è che un utente reale ha un'attenzione limitata, mentre online c'è sovrabbondanza di informazioni.
Quindi un contenuto che fa leva su una nostra convinzione, o su un pregiudizio, porterebbe gli utenti dei social ad essere attratti piu' facilmente. Il resto lo fanno gli algoritmi dei social media, che conoscono le nostre inclinazioni e ci portano a leggere quello che piu' facilmente leggeremmo. "La nostra analisi sugli articoli condivisi [dai bot] conferma che la grande maggioranza degli articoli contiene qualche tipo di disinformazione", si legge nello studio. "In media siti poco credibili hanno pubblicato nel periodo preso in esame [maggio 2016 marzo 2017] circa 100 articoli alla settimana".
Gli umani non sanno più distinguere un bot da un utente reale
Questi contenuti sarebbero lanciati in prima istanza da quelli che lo studio chiama "super-spreaders", bot super condivisori, in grado di aumentare il numero di retwitt di un contenuto: "I bot hanno un ruolo prevalente nei primi secondi dopo che un articolo è pubblicato su Twitter. Noi crediamo che questo intervento esponga molti altri utenti a questi articoli falsi, aumentando la possibilità che un articolo diventi virale". Una strategia che sembra funzionare perché dopo l'intervento iniziale dei bot cominciano a presentarsi i primi retwitt umani, che in breve tempo diventano molto piu' numerosi dei bot.
"Questo dimostra che gli utenti reali non sono in grado di capire quando una fake news è rilanciata da un bot", continua la ricerca, anzi "diventano strumento di condivisione di contenuti di disinformazione a loro volta". Continuano e completano il lavoro che i bot hanno cominciato. I ricercatori hanno lavorato su Twitter, ma tutto lascia intendere, spiegano, che lo stesso possa valere anche per Facebook, Snapchat e gli altri social dove dominano i contenuti virali. Una situazione a cui non sembrano riuscire ad ovviare siti di fact-checking o di svelamento delle bufale. L'unico modo, suggerisce la ricerca, è lavorare con i social per "fermare le reti di bot presenti".
E sembra che qualcosa stia iniziando a muoversi in questo senso.