Twitter cerca di proteggere la qualità delle conversazioni online tra i suoi utenti e, per farlo, si affida a due gruppi di ricercatori accademici che avranno il compito di analizzare la salute dei dialoghi dei suoi iscritti. Lo ha annunciato la stessa società con un comunicato diffuso il 30 luglio. “Vogliamo che tutti, su Twitter, godano di un’esperienza priva di abusi, molestie e qualsiasi altro tipo di comportamento che possa distorcere la conversazione pubblica”, ha scritto la società di San Francisco.
Cosa significa misurare la salute di una conversazione?
“Per poter migliorare qualcosa dobbiamo poterlo misurare”: ne è convinto Twitter che, lo scorso marzo, aveva deciso di invitare studiosi accademici a proporre soluzioni per misurare la salute di una conversazione. Di che cosa si tratta? Il media lab del Mit di Boston e Cortico, una realtà americana che si occupa di analizzare la sfera pubblica attraverso l’intelligenza artificiale e lo studio dei dati dei social media, avevano indicato i quattro principi attraverso cui misurare lo stato di salute di una conversazione pubblica: l’attenzione condivisa, cioè la sovrapposizione dei temi di cui si parla; la realtà condivisa, per capire se gli attori del dialogo stanno utilizzando gli stessi fatti per parlare di uno stesso argomento; il grado di varietà, cioè l’esposizione a opinioni differenti; infine la ricettività, ovvero l’apertura e l’ascolto civile delle opinioni altrui.
Anche un ricercatore della Bocconi tra quelli scelti da Twitter
In un mese e mezzo Twitter ha ricevuto più di 230 proposte e tra queste ne ha selezionate due. Nel primo team vincitore, quello coordinato da Rebekah Tromble, docente di Scienze politiche all’Università di Leida nei Paesi Bassi, c’è anche un ricercatore che lavora alla Bocconi di Milano: si chiama Dirk Hovy ed è sociolinguista computazionale e professore associato al Dipartimento di Marketing dell’ateneo italiano. Loro si occuperanno di “sviluppare due tipi di metriche”: una che riguarda le echo chambers, cioè le camere dell’eco di cui avevamo parlato già in passato. Si tratta del fenomeno per cui, soprattutto online e sui social, tendiamo a leggere e seguire cioè che rafforza le nostre opinioni, mettendo a tacere cioè che le contrasta. La seconda metrica riguarda invece l’inciviltà e l’intolleranza online: due aspetti solo apparentemente simili. Mentre la prima “può avere un’importante funzione nel dialogo politico”, l’intolleranza è soltanto dannosa. È il caso del “discorso d’odio, del razzismo e della xenofobia” che possono mettere a repentaglio la democrazia.
Thank you everyone who submitted @Twitter Health proposals! 230+ proposals from institutions globally across topics: echo chambers, bots/misinformation, healthy discourse, info analyses & more. We'll be reviewing over the coming weeks & will follow up with semi-finalists then! https://t.co/IVffcigEcF
— Gasca (@gasca) 16 aprile 2018
Il secondo gruppo di ricerca, coordinato da docenti di Oxford e Amsterdam, si focalizzerà invece sul tentativo di capire il modo in cui determinati background sociali influenzino il comportamento online, riducendo pregiudizi e casi di discriminazione. Alla base della teoria del professor Miles Hewstone che guida il team c’è la convinzione che, quando la comunicazione tra gruppi stimola il ragionamento complesso e prende in considerazione prospettive differenti, allora le relazioni sono migliori.
Negli ultimi mesi Twitter ha lavorato per cercare di migliorare l’ecosistema informativo sulla piattaforma, dando la caccia a troll, bot e utenti fasulli. Una battaglia che ha ridotto di circa un milione il suo numero di utenti rispetto al primo trimestre dell’anno, portandolo a quota 335 milioni. Una scelta che la società aveva dovuto scontare registrando il crollo a Wall Street della scorsa settimana.