Mark Zuckerberg, di religione ebraica, dice che non impedirebbe a nessuno di scrivere sul suo social network che l’Olocausto non è mai avvenuto perché tutti hanno il diritto di sbagliare.
È la frase diventata titolo di migliaia di articoli dopo la sua intervista a Recode ma che ha riacceso il dibattito sul ruolo di Facebook, sul potere enorme che ha assunto nelle nostre vite, su come ci informiamo, su quello che leggiamo, su come costruiamo le nostre idee, le rafforziamo attraverso le cose che vediamo sul social network.
Dietro questo dibattito c’è una domanda, per molti fondamentale, cui nessuno ha trovato una risposta, né una soluzione. Google e Facebook devono comportarsi da controllori di Internet? Devono avere la responsabilità di quello che pubblicano? E come dovrebbero comportarsi da ‘direttori editoriali’ di Internet? Di arbitri della verità?
Zuckerberg nega che la natura di Facebook sia quella di una media company. Lo fa perché in caso contrario avrebbe la responsabilità dei contenuti pubblicati dai suoi utenti, dalle fan page, dai gruppi. Ma questa responsabilità non la vuole perché (punto fondamentale dell’intervista a Recode) crede che il suo social debba dare voce a tutti, che tutti possano dire quello che vogliono e che anche le teorie cospirazioniste, complottiste, la negazione dei fatti, la creazione artificiale di altri, insomma, tutta la galassia che da qualche tempo chiamiamo “fake news” non può essere preventivamente censurata - altro passaggio fondamentale dell'intervista è quando Zuckerberg spiega perché non vuole bannare il sito cospirazionista Infowars.
Chi diffonde bufale, dice, lo fa per errore, perché magari non è ben informato.
Le bufale, i discorsi d'odio e le necessità di bilancio
Non è un semplice volersi lavare le mani. Zuckerberg crede davvero (almeno così dice) che chi dice menzogne lo fa in buona fede e che grazie anche all’uso dei social può in qualche modo rinsavire e magari dopo aver negato l’Olocausto la sua rete sociale può spingerlo a cambiare posizione.
Zuckerberg ha una visione ottimistica e teleologica della tecnologia: il suo fine è il bene, il bene prima o poi vincerà. Per farlo non occorre la censura, ma ancora la tecnologia, un algoritmo in questo caso che, promette il 34enne di Westchester, ridurrà le visualizzazioni di quei contenuti senza censurarli.
Ma se nell’intervista a Recode emerge ancora una volta questa visione teleologica, la realtà è anche un’altra: fake news, post violenti, linguaggi e toni accesi a Facebook servono come il pane . Sono questi i contenuti più dibattuti e condivisi. E le condivisioni aumentano quello che viene chiamato ‘l’engagement’, la capacità di Facebook di tenerti incollato allo schermo del telefonino.
Se questo era un non detto finora, un’inchiesta di Channel 4 ha dimostrato, grazie ad un giornalista che si è fatto assumere per moderare i contenuti, che Facebook la moderazione dei contenuti non la vuole poi tanto. Perché in un social network pulito dagli insulti, dalle contenuti violenti, dai contenuti urlati e non verificati perderebbe il suo interesse.
E interesse significa attenzione, che significa tempo speso sulla piattaforma, che significa soldi nelle casse di Manlo Park.
Questo è il paradosso dei social network. E forse aiuta rileggersi un passaggio dell’ex vicepresidente di Facebook Chamath Palihapitiya:
“I circoli viziosi di feedback a breve termine alimentati dalla dopamina che abbiamo creato stanno distruggendo la società”.
Palihapitiya si riferisce al fatto che i social sono costruiti su ciò che ci attrae di più: la dopamina è il like ad un post, un commento, un commento al quale si vuole replicare, la reazione a un post, a una foto. Tutto è fatto per tenerci incollati all’app tra una pubblicità di un prodotto e un’altra, che poi è il vero motivo per cui gli utenti devono tenere gli occhi incollati allo schermo.
E la disinformazione e i contenuti che fanno discutere, creano indignazione, rabbia e condivisioni servono. Continua Palihapitiya.
“Non c’è un discorso civile, nessuna cooperazione; è solo disinformazione, mistificazione. Non è un problema americano, non si parla delle inserzioni dei russi. Questo è un problema globale. […] Mi sento terribilmente in colpa. Penso che tutti in fondo lo sapessimo, ma abbiamo simulato un approccio diverso, come se non ci fossero conseguenze negative e intenzionali. Ma nei profondi recessi della nostra mente, io credo, sapevamo che poteva uscirne qualcosa di brutto […] Adesso siamo in una situazione terribile, secondo me, che sta minando le fondamenta dei comportamenti delle persone e tra le persone. E non ho una soluzione adeguata. La mia soluzione è non usare più questi strumenti”.
Il passaggio è preso da “Dieci ragioni per cancellare subito i tuoi account social”, dell’informatico e pioniere della realtà virtuale americano Jaron Lanier (Il Saggiatore 2014)