AGI - C’è un progetto di ricerca, unico nel suo genere, che monitora centinaia di persone a rischio di suicidio, utilizzando i dati di smartphone e biosensori per identificare i periodi ad elevato tasso di pericolo per le persone e poter quindi intervenire.
A raccontarlo è il New York Times, che riporta l’esperienza della signora Cruz, 29 anni, che ha lasciato l'ospedale nell'ambito d’un vasto progetto di ricerca che “tenta di utilizzare i progressi dell'intelligenza artificiale per individuare qualcosa che è sfuggito agli psichiatri per secoli: prevedere chi potrebbe tentare il suicidio e intervenire quando è più probabile che la persona lo metta in atto”.
Al polso, scrive il Times, la signora Cruz “indossa un orologio programmato per monitorare il sonno e l'attività fisica. Sul suo smartphone, un'app raccoglie dati sui suoi stati d'animo, i suoi movimenti e le sue interazioni sociali” e ciascun dispositivo fornisce un flusso continuo di informazioni a un team di ricercatori che si trova al 12° piano del William James Building, che ospita il dipartimento di psicologia di Harvard.
Sottolinea il Times che mai come ora “nel campo della salute mentale, poche nuove aree generano tanta eccitazione quanto l'apprendimento automatico, che utilizza algoritmi informatici per prevedere meglio il comportamento umano” mentre “allo stesso tempo, c'è un crescente interesse per i biosensori in grado di tracciare l'umore di una persona in tempo reale, tenendo conto delle scelte musicali, dei post sui social media, dell'espressione facciale, di quella vocale”.
La ricerca punta “a trasformare queste tecnologie in una sorta di sistema d’allerta preventivo che potrebbe essere utilizzato quando un paziente a rischio viene dimesso dall'ospedale”.
Il quotidiano americano tuttavia è scettico: “Ci sono molte ragioni per dubitare che un algoritmo possa mai raggiungere questo livello di precisione – commenta -, il suicidio è un evento così raro, anche tra quelli a più alto rischio, che qualsiasi sforzo per prevederlo è destinato a produrre falsi positivi, costringendo a intervenire su persone che potrebbero non averne bisogno.
I falsi negativi potrebbero invece addossare la responsabilità legale ai medici. Gli algoritmi richiedono dati granulari a lungo termine per un gran numero di persone ed è quasi impossibile poter osservarle tutte mentre tentano il suicidio”. Infine, rileva, “i dati necessari per questo tipo di monitoraggio sollevano dubbi sulla tutela della privacy di alcune tra le persone più vulnerabili della società”.
Quanto alla signora Cruz, invece, stava studiando per una laurea in infermieristica quando la crisi di salute mentale ha mandato in tilt la sua vita, ma – scrive il Times – è rimasta subito incuriosita dall’esperiento e “ha risposto diligentemente sei volte al giorno, quando le app sul suo telefono l'hanno interrogata sui suoi pensieri suicidi”.
I suoni erano invadenti, ma anche confortanti: "Mi sembrava di non essere ignorata", ha confessato, "avere qualcuno che sa come mi sento, toglie un gran peso".