AGI - Un recente studio condotto da David A. Broniatowski e il suo team della The George Washington University ha analizzato gli effetti di una politica adottata da Facebook per rimuovere le informazioni sbagliate sulle vaccinazioni dalla sua piattaforma durante la pandemia da Covid-19. I risultati dello studio, pubblicati sulla rivista Science Advance, hanno rivelato che questa politica non ha comportato una diminuzione dell’interazione complessiva con i contenuti contrari alle vaccinazioni.
Invece, sembra che l’architettura del sistema della piattaforma di social media sia stata sfruttata dagli autori e dagli utenti di tali contenuti per creare nuovi percorsi attraverso cui visualizzare materiale anti-vaccinazione. Secondo i ricercatori, dopo l’implementazione della politica di rimozione, i contenuti anti-vaccinazione sono diventati “più fuorvianti, più politicamente estremizzati e con più probabilità di apparire nei feed di notizie degli utenti”.
Per condurre la loro analisi, Broniatowski e il suo team hanno utilizzato lo strumento di scoperta e monitoraggio dei contenuti chiamato CrowdTangle (di proprietà di Meta, la società madre di Facebook) per scaricare dati pubblici da pagine e gruppi di Facebook. I ricercatori hanno esaminato i contenuti contrari alle vaccinazioni e quelli a favore delle vaccinazioni il 15 novembre 2020, subito prima della rimozione, avvenuta l’18 novembre 2020, della pagina “Stop Mandatory Vaccination”, una delle più grandi pagine anti-vaccinazione sulla piattaforma, e prima dell’annuncio del 3 dicembre 2020 di Facebook riguardo alla rimozione delle affermazioni false sulle vaccinazioni anti-COVID-19 e degli account che pubblicavano tali affermazioni.
Successivamente, i ricercatori hanno confrontato i dati provenienti da oltre 200.000 post pubblicati su pagine e gruppi creati tra il 15 novembre 2019 e il 15 novembre 2020 con i post pubblicati sulle stesse pagine e gruppi tra il 16 novembre 2020 e il 28 febbraio 2022. Secondo i ricercatori, diversi elementi dell’architettura del sistema di Facebook potrebbero aver permesso agli utenti di aumentare la loro interazione con i contenuti contrari alle vaccinazioni e alle informazioni sbagliate sulle vaccinazioni.
Ad esempio, le pagine e i gruppi potevano coordinarsi tra loro per promuovere contenuti o ripubblicare contenuti rimossi. Inoltre, l’algoritmo del feed di notizie di Facebook, progettato per promuovere i contenuti che generano “interazioni sociali significative” misurate attraverso reazioni come “mi piace” e “arrabbiato”, potrebbe aver aumentato l’esposizione ai contenuti di informazioni sbagliate sulle vaccinazioni.
In sintesi, lo studio indica che la lotta contro la diffusione di informazioni errate sulle vaccinazioni su piattaforme di social media come Facebook è una sfida complessa e che l’architettura del sistema di tali piattaforme può avere un impatto significativo sulla diffusione di tali contenuti. La ricerca evidenzia l’importanza di sviluppare strategie efficaci per contrastare la disinformazione e promuovere informazioni accurate in un ambiente digitale sempre più influente.