Con un post pubblicato il 27 marzo, Facebook ha fatto sapere che dalla settimana prossima non sarà più tollerata alcuna forma di sostegno al separatismo e al nazionalismo bianco sulla piattaforma. Contenuti di questo tipo, si legge nel comunicato, saranno cancellati sia da Facebook sia da Instagram, e almeno negli Stati Uniti gli utenti verranno reindirizzati su pagine di supporto legate a organizzazioni che contrastano l’odio razziale. L’intenzione, spiega l’azienda, è di dare un taglio netto al clima d’odio che negli anni si è andato espandendo sui social network, e che ha preso di mira soprattutto gruppi basati sull’etnia, la razza o la religione.
“Le nostre politiche hanno a lungo proibito manifestazioni d’odio”, si legge, “e questo ha sempre incluso i suprematisti bianchi. In origine non applicavamo la stessa logica anche al nazionalismo e al separatismo bianco perché avevamo in mente un concetto più ampio di queste due idee - come l’orgoglio (di essere, ndr) americano o il separatismo basco, che sono una parte importante dell’identità delle persone”. Ma nell’ultimo periodo, e dopo “mesi di confronto con esperti e membri della società civile”, l’azienda ha deciso di rivedere le proprie politiche, riconoscendo che “il nazionalismo bianco e il separatismo bianco non possono essere significativamente separati dal suprematismo bianco e dai gruppi d’odio organizzati”.
Ma se questo cambiamento arriva a pochi giorni dal massacro di Christchurch, nel quale un suprematista bianco ha ucciso decine di musulmani trasmettendo l’attentato in diretta streaming, le radici della decisione di Facebook risalgono a prima ancora. Era il 2017, e a Charlottesville, Virginia, i “suprematisti” marciavano al grido di “white lives matter”, protestando per la decisione delle autorità locali di rimuovere la statua del generale confederato Robert Lee, eroe dei sudisti ai tempi della Guerra Civile americana. Sventolando bandiere confederate del sud e marciando armati, i neonazisti causarono una giornata di guerriglia, nella quale perse la vita una donna di trentadue anni, investita da un’auto piombata sulla folla.
Dopo quei tragici eventi Facebook fu costretta ad ammettere i limiti delle proprie regole di moderazione nell’intercettare i contenuti d’odio. “I recenti incidenti negli Stati Uniti hanno mostrato che c’è una potenziale confusione sulle nostre regole per i gruppi d’odio”, scriveva in un documento interno rivelato in esclusiva da Motherboard nel 2018.
Facebook aveva iniziato un percorso di revisione delle proprie regole, volto proprio a meglio identificare le manifestazioni d’odio, delineando i gruppi maggiormente orientati a simili ideologie. Ma il problema, prima di tutto, è sempre quello di dare una definizione sulla quale sia possibile basare politiche quanto più uniformi possibili, per farle poi diventare istruzioni da impartire a chi esegue la moderazione.
Così, all’indomani dei fatti di Charlottesville, nel medesimo documento si leggeva che il nazionalismo è un “movimento e un'ideologia di estrema destra, ma non sembra essere sempre associato al razzismo (almeno non esplicitamente)”. Tuttavia, già allora l’azienda ammetteva che “alcuni nazionalisti bianchi evitano accuratamente il termine supremazia perché ha connotazioni negative”, o per eludere le franchigie ideologiche stabilite dal social. Ed è proprio a questo fine gioco di ambiguità linguistiche che oggi Facebook ha messo la parola fine. riconoscendo una più stretta correlazione tra il nazionalismo bianco e il razzismo.
“La nostra revisione delle figure e delle organizzazioni dell'odio - come definito dalla nostra politica Dangerous Individuals & Organizations - ha rivelato ulteriormente la sovrapposizione tra il nazionalismo bianco, il separatismo bianco e la supremazia bianca”, ha scritto ieri Facebook. “Andando avanti, mentre le persone saranno ancora in grado di dimostrare orgoglio per la loro eredità etnica, non tollereremo lodi o sostegno per il nazionalismo bianco e il separatismo bianco”.
Arginare l’odio, intervenire tempestivamente. Sembra che saranno questi i nuovi pilastri delle politiche dell’azienda, che rinnova il suo impegno a “migliorare e velocizzare la ricerca e la rimozione dell'odio dalle piattaforme”. Compreso quello di Brenton Tarrant, l’assassino neozelandese che ha ripreso l’assalto a una moschea con un’inquadratura in prima persona e il fucile in mano, come in un videogioco.
“La polizia ci ha avvisato di un video poco dopo l'inizio della diretta – ha spiegato Facebook Nuova Zelanda il 15 marzo - e abbiamo rimosso rapidamente gli account Facebook e Instagram che lo avevano pubblicato”. Ma individuare un video non è semplice, e impedirne nell'immediato la proliferazione praticamente impossibile. Facebook ha rimosso 1,5 milioni di filmati nelle 24 ore successive alla strage, mentre cercava di arginare i commenti di quanti sostenevano il suprematista. Altrettanti sono stati oscurati da YouTube e altre piattaforme.
“Negli ultimi anni abbiamo migliorato la nostra capacità di utilizzare l'apprendimento automatico e l'intelligenza artificiale per trovare materiale da gruppi terroristici - scrive oggi Facebook -. Lo scorso autunno, abbiamo iniziato a utilizzare strumenti simili per estendere i nostri sforzi a una serie di gruppi di fomentatori di odio a livello globale, inclusi i suprematisti bianchi”.
Purtroppo però, “ci saranno sempre persone che cercano di imbrogliare il sistema”, ammette Facebook. Proprio come Brenton Tarrant, che ha preannunciato la strage sui social network decine di minuti prima dell’inizio della strage, e due anni e mezzo dopo Charlottesville.