Non sono mesi facili per YouTube. Dopo il caso Logan Paul c’è un’altra questione che sta agitando le acque del social network di proprietà di Google. Si tratta di un video che riguarda uno dei sopravvissuti della sparatoria alla Marjory Stoneman Douglas High School, in Florida. Un video costruito ad arte per alimentare una falsa notizia sul movimento #NeverAgain, fondato da alcuni ragazzi, per cambiare le politiche e leggi degli Stati Uniti sul possesso delle armi da parte dei civili. Un video diventato “di tendenza” anche per colpa dell’algoritmo di YouTube che lo ha fatto schizzare in alto nella classifica dei più visti e condivisi. Fino al primo posto, prima di venire rimosso.
David Hogg è “un attore”
David Hogg ha 17 anni ed è uno dei responsabili del giornale della scuola americana che è stata teatro dell’ultima “shooting mass” negli Stati Uniti. L’accusa che il video veicola è semplice: Hogg non è un semplice ragazzo desideroso di cambiare il sistema ma un attore pagato per contrastare la NRA, la potente lobby americana dei produttori di armi da fuoco, e le decisioni prese dall’amministrazione Trump.
I fallimenti degli algoritmi
In questi anni abbiamo spesso parlato dei grandi social presenti in rete attraverso le funzionalità previste dal loro algoritmo. Un algoritmo da assecondare e conoscere. E da cui dipendere per raggiungere il pubblico di riferimento. Ma proprio sulla questione armi capita spesso di analizzarne le falle e i limiti. Un problema comune e che riguarda non solo YouTube ma anche Twitter e Facebook. Spesso questo tipo di algoritmi, che si basano per gran parte sul volume delle conversazioni, pongono in primo piano scandali che generano indignazione e che, in questo modo, alimentano l’indignazione stessa. “Il dibattito sulla tendenza diventa la tendenza stessa. Un ciclo interminabile di indignazione che si alimenta sempre più perché alcun linee di codice hanno deciso che quell’argomento era importante, dicendolo a milioni di persone” (Wired). Ma in questo specifico caso ci sarebbe un’aggravante in più. Il video di Parkland sarebbe arrivato in cima alla pagina di tendenza non per un semplice caso ma come risultato di un tentativo da parte di YouTube di correggere le notizie false. Come ricorda sempre l’articolo di Wired, YouTube afferma che il suo sistema ha "erroneamente classificato" il video della cospirazione "perché il video conteneva filmati di una fonte di notizie autorevole”.
Anche Facebook ha fatto la sua parte
Il video di Youtube è stato ovviamente ripreso da molti utenti di Facebook. Tra di loro c’è anche l’attrice e modella Amber Smith, apparsa anche in grandi produzioni cinematografiche e televisive come American Beauty e Friends. In un post sulla sua pagina ufficiale, Smith accusava pesantemente Hogg di essere, come detto, un attore. E quindi un impostore. Con un invito a difendere i diritti degli americani. L’algoritmo di Facebook ha classificato il messaggio come principale post pubblico sull’argomento. Nonostante raccontasse e diffondesse una bufala.
E allora la riflessione è fin troppo semplice. Questa tipologia di classifica, basata su trend e hashtag, avrebbe dovuto aiutarci a capire quali fossero le principali notizie da quelle meno importanti. Un modo facile per far emergere i temi più caldi in mezzo all’enorme calderone dell’informazione online. Ora, invece, viene da chiedersi se la crescita dei social, le fake news e i bot, abbiano influenzato troppo questo meccanismo. Abbiamo ancora bisogno di questi suggerimenti? Possiamo fare a meno di un algoritmo per informarci?