Se l'obiettivo è dare a tutti il potere di far parte di una comunità, Facebook dovrebbe consentire un reale controllo sui contenuti che gli utenti visualizzano: questo è quanto chiede la Web Foundation - organizzazione creata dal padre del web, Sir Tim Berners-Lee - che ha acceso una luce sulle crepe dell’algoritmo di Mark Zuckerberg, messo sotto esame durante il periodo della campagna elettorale per le elezioni in Argentina, tra ottobre e dicembre del 2017.
Una ricerca, pubblicata il 22 aprile, ha esplorato le interazioni e le timeline di un gruppo di profili fittizi, misurando l’invasività dell’azione dell’algoritmo su ciò che viene mostrato agli utenti. I ricercatori scrivono di aver osservato “grandi lacune tra le storie pubblicate e quelle viste nei post: delle pagine seguite tra tutti gli utenti, veniva loro mostrato solo un contenuto ogni sei”. La cosiddetta filter bubble, ovvero la bolla di argomenti che l'algoritmo di Facebook sceglie di mostrare a chi lo usa per creare un’esperienza quanto più coinvolgente possibile.
“Noi siamo sempre stati i piccoli ‘Davide’ della battaglia per i diritti digitali, mentre chi fa lobbying è ‘Golia’, e ha risorse diverse dalle nostre - aveva detto ad Agi pochi giorni fa Renata Avila, avvocata guatemalteca, esperta in diritti umani in rete e Senior Digital Rights Advisor della Web Foundation -. Ma stavolta non possiamo sbagliare”. La lotta sul campo dei diritti alla privacy e al trattamento dei dati personali è iniziata sotto i peggiori auspici per il re dei social network.
Dopo lo scandalo di Cambridge Analytica - nel quale una società ha utilizzato le informazioni di 87 milioni di utenti Facebook per condizionare le opinioni politiche degli elettori - le istituzioni e la società civile, in Europa come negli Stati Uniti, hanno preteso chiarimenti da parte di Mark Zuckerberg. Su come funzionano gli algoritmi e come avviene la raccolta e l’utilizzo dei dati degli utenti. Ma l’ultima tegola arriva dalla Web Foundation, che ha deciso di sperimentare e mettere sotto stress l’algoritmo per intuirne i segreti.
Come è stato realizzato lo studio
Per la realizzazione di questo studio, il team della fondazione ha creato sei profili test, caratterizzati da altrettante posizioni relative agli schieramenti politici delle elezioni in Argentina di ottobre dello scorso anno. Questi utenti, le cui timeline sono state analizzate attraverso degli strumenti informatici automatizzati, condividevano lo stesso gruppo di fonti d’informazione, differenziandosi esclusivamente per i “like” a un gruppo di pagine politiche.
L’esito dell’esperimento è stato che, oltre a rilevare forti differenze nei contenuti giornalistici proposti agli utenti, sulle timeline monitorate alcune notizie non sarebbero mai comparse: “La decisione di affidarsi ad algoritmi per curare i contenuti potrebbe far sì che post di carattere politico o sociale che ricadono al di fuori delle metriche possano non essere mostrati ad alcuni utenti - si legge nella ricerca -. Durante il periodo osservato, nessuna delle storie riguardanti i femminicidi pubblicate dalle pagine seguite dai nostri profili è emersa sulle loro timeline”.
Un altro risultato osservato dai ricercatori riguarda la differenza delle timeline anche per profili che hanno caratteristiche personali identiche. Su 11.603 post pubblicati durante gli undici giorni di osservazione da parte delle fonti condivise da tutti i profili, uno di questi ne ha visualizzati solo 1192. Mentre tutti gli utenti presi insieme ne hanno osservato poco più di duemila. Circa il 18 per cento del totale, su 22 pagine seguite.
Questo equivale a visualizzare solo un post ogni sei che ne vengono pubblicati. Due dei profili in particolare, identici nei like come nei tempi e nelle ore di accesso al social network, hanno avuto visto solo metà dei post comparire su entrambe le bacheche. Alla richiesta di un commento, Facebook ha risposto ad Agi: “Il feed di notizie di ciascun utente su Facebook è unico e progettato per trovare i contenuti più pertinenti per lui. Ciò che ognuno vede è determinato dai loro interessi e interazioni con altre persone, pagine, notizie, lavoro e contenuti”.
Trasparenza e integrazione degli utenti nel processo di definizione dei flussi di informazioni: nelle raccomandazioni prodotte nel documento la fondazione chiede che Facebook renda possibile agli utenti di visualizzare anche una versione non filtrata dall’algoritmo delle loro timeline.
L’intento è consentire di fare un confronto ed “evadere” almeno temporaneamente dall’egemonia algoritmica. Un’altra raccomandazione riguarda l’ordine di pubblicazione dei post: per la Web Foundation Facebook dovrebbe predisporre la visualizzazione in ordine cronologico dei contenuti pubblicati di default. Possibilità già ora disponibile, ma che viene resettata a ogni riavvio dell’applicazione.