Facebook ha pubblicato un resoconto sulla sua lotta al terrorismo e la quantità di contenuti estremisti rimossi nei primi tre mesi del 2018 nello stesso giorno in cui ha reso note le linee guida interne utilizzate per applicare gli standard della comunità; ovvero le regole con cui decide di sospendere o eliminare contenuti o profili (il testo italiano si aggiornerà nei prossimi giorni). E che spesso causano malumori e proteste da parte degli utenti che si ritengono ingiustamente penalizzati.
La mano (e la mente) umana
Ora per la prima volta Facebook consentirà agli iscritti il diritto di fare appello contro le decisioni sulla rimozione di singoli post, per i quali sarà possibile richiedere una seconda opinione quando si ritiene ci sia stato un errore (finora era possibile appellarsi solo in caso di chiusura del profilo o della pagina). La richiesta sarà presa in carico da un revisore - una persona in carne e ossa – entro 24 ore.
Il diritto di appello - non c’è una data di inizio certa, il comunicato dell’azienda dice “nel corso del prossimo anno” - riguarderà inizialmente solo una serie specifica di contenuti o violazioni presunte: per nudità/attività sessuale, incitamento all'odio o violenza esplicita. Il social network ha anche spiegato che le segnalazioni sono riviste dal proprio team di Community Operations che lavora 24 ore su 24, in oltre 40 lingue. Si tratta di 7.500 revisori di contenuti, oltre il 40 per cento in più di quelli che aveva nello stesso periodo l'anno scorso.
Cosa dicono le linee guida
Ma veniamo ai contenuti delle linee guida. Facebook mette al bando minacce e richiami alla violenza, distinguendo fra “frasi superficiali” e “contenuti che costituiscono una minaccia credibile alla sicurezza personale e pubblica”.
No dunque a: attività terroristiche; odio organizzato; omicidi seriali; traffico di esseri umani, attività criminale e violenza organizzata; merci e sostanze controllate (droghe, medicine ecc)
Fin qui, come dire, tutto bene, nel senso di tutto chiaro e abbastanza scontato. Facebook proibisce pure: sfruttamento sessuale di minori ma anche nudità di bambini (quindi niente foto, anche innocenti, di figli nudi, e comunque questo è un genere di immagini che non bisognerebbe mai mettere online, consigliano gli esperti di lotta alla pedopornografia); immagini di violenza sessuale; bullismo; harassment; diffusione di informazioni private che possono danneggiare qualcuno.
C'è nudo e nudo...
E anche discorsi d’odio (hate speech), immagini che glorificano la violenza, contenuti crudeli e insensibili, nudità di adulti o attività sessuale, ma ok al nudo nell’arte (ricordiamo che su questo tema in passato ci sono stati autogol clamorosi del social). Sul bullismo Facebook fa una eccezione per figure note, perché possono essere al centro di un discorso pubblico anche molto critico; resta un no secco nel caso di minacce o discorsi d’odio rivolti nei loro confronti. E ancora, no allo spam e a false rappresentazioni/identità. In quanto alle notizie false, Facebook cerca soprattutto di ridurne la portata e diffusione.
La pubblicazione di questi dettagli - su cosa considera terrorismo (definizione data per la prima volta nel suo resoconto sulla rimozione di contenuti estremisti) e sulle linee guida per gli standard della comunità - è utile a fare un po’ più di chiarezza. Ed è un passo ulteriore nella strategia del social network di mostrarsi più trasparente e responsabile, dopo essere finito nel mirino di governi e opinione pubblica con lo scandalo di Cambridge Analytica.
La questione media-company
Ma sicuramente Facebook sta anche molto attenta a non far scambiare questi passi come l’ammissione di essere una azienda editoriale, invece di una piattaforma tecnologica neutrale. Del resto il suo Ceo Mark Zuckerberg lo ha detto più volte al Congresso Usa: “Non siamo un’azienda media”.
La questione non è terminologica, ma ha implicazioni legali. Facebook e altri giganti tech sono cresciuti riparati da una legge americana (in particolare dalla sezione 230 del Communications Decency Act) che garantisce loro immunità per i contenuti pubblicati dagli utenti in quanto piattaforme tecnologiche, intermediari online (e non media). Una protezione che alcuni politici americani, forti del nuovo clima verso i colossi tech, vorrebbero rimettere in discussione.