Facebook integra una nuova funzione: un sistema anti-suicidio basato sull'intelligenza artificiale. Dopo alcuni casi di utenti che si sono tolti la vita in diretta (o hanno minacciato di farlo), il social network ha cercato un metodo per arginare il fenomeno.
Lo avrebbe trovato in questo sistema che, dopo una fase di test, sarà lanciato in tutto il mondo, Unione europea esclusa a causa di norme sulla privacy più restrittive. Lo ha annunciato il ceo di Facebook Mark Zuckerberg in un post, affermando che "solo nell'ultimo mese" la funzione a contribuito a fornire un intervento rapido "in più di cento casi".
L'intelligenza artificiale sarebbe in grado di riconoscere i segnali associati al suicidio. Come alcune parole pronunciate dall'utente o le frasi scritte nei commenti dai suoi amici (come ad esempio "Va tutto bene?"). In caso di pericolo (reale o presunto), il software lancia l'allarme a un addetto in carne e ossa (c'è un team dedicato attivo 24 ore su 24). Sarà quindi l'uomo e non la macchina a decidere se è il caso di intervenire o meno, avvertendo nel caso i contatti più assidui o i familiari dell'utente.
Il machine learning (cioè la capacità dell'intelligenza artificiale di imparare dai dati raccolti) dovrebbe migliorare la funzione in corso d'opera, percependo, scrive Zuckerberg, "anche sottili sfumature del linguaggio". In prospettiva, lo stesso metodo e la stessa tecnologia potrebbero essere usati non solo per i suicidi ma anche per altri temi sensibili, come "bullismo e odio online". Il ceo di Facebook, ormai alfiere dell'intelligenza artificiale, non rinuncia a una frecciata nei confronti di chi (come Elon Musk, ceo di Tesla e di SpaceX) sottolinea i rischi derivanti dalle macchine intelligenti: "Visto il timore che l'intelligenza artificiale possa essere pericolosa, è bene ricordarci che sta aiutando a salvare la vita delle persone".