AGI - Le persone più scettiche nei confronti dei cambiamenti climatici causati dall'uomo o con idee contrarie al movimento Black Lives Matter, che difende i diritti dei neri, che hanno partecipato a una conversazione con un popolare chatbot di intelligenza artificiale, sono rimaste deluse dall'esperienza, ma hanno lasciato la conversazione più inclini ad appoggiare il consenso scientifico sui cambiamenti climatici o la causa del Black Lives Matter. A rivelarlo uno studio, dell'Università del Wisconsin-Madison, pubblicato su Scientific Reports. Gli esseri umani più accorti possono adattarsi alle tendenze politiche e alle aspettative culturali dei loro interlocutori per assicurarsi di essere capiti, ma sempre più spesso si trovano a conversare con programmi informatici, chiamati modelli linguistici di grandi dimensioni, destinati a imitare il modo in cui le persone comunicano.
I ricercatori che studiano l'intelligenza artificiale volevano capire come un modello linguistico complesso di grandi dimensioni, GPT-3, si sarebbe comportato in un gruppo culturalmente diverso di utenti in discussioni complesse. Il modello è un precursore di quello che alimenta il noto ChatGPT. I ricercatori hanno reclutato più di 3.000 persone, tra la fine del 2021 e l'inizio del 2022, per avere conversazioni in tempo reale con GPT-3 sui cambiamenti climatici e sul BLM. "L'obiettivo fondamentale di un'interazione come questa tra due persone o agenti è quello di aumentare la comprensione del punto di vista dell'altro", ha spiegato Kaiping Chen, professore di comunicazione delle scienze biologiche all'Università del Wisconsin-Madison, che studia il modo in cui le persone discutono di scienza e deliberano su questioni politiche correlate, spesso attraverso la tecnologia digitale.
"Un buon modello linguistico di grandi dimensioni probabilmente farebbe percepire agli utenti lo stesso tipo di comprensione", ha continuato Chen che, ha condotto lo studio assieme a Yixuan "Sharon" Li, professore di informatica dell'Università del Wisconsin-Madison che studia la sicurezza e l'affidabilità dei sistemi di intelligenza artificiale, insieme ai loro studenti Anqi Shao e Jirayu Burapacheep, ora laureato all'Università di Stanford, I partecipanti allo studio sono stati istruiti ad avviare una conversazione con il GPT-3 attraverso una configurazione di chat progettata da Burapacheep. Ai partecipanti è stato detto di parlare con il GPT-3 del cambiamento climatico o del movimento BLM, ma per il resto sono stati lasciati liberi di affrontare l'esperienza come volevano.
In media, la conversazione è andata avanti e indietro per circa otto volte. La maggior parte dei partecipanti è uscita dalla chat con livelli simili di soddisfazione dell'utente. "Abbiamo fatto loro una serie di domande relative al gradimento dell'esperienza dell'utente", ha affermato Chen. "A seconda del sesso, della razza e dell'etnia, non c'è molta differenza nelle loro valutazioni", ha proseguito Chen. "Dove abbiamo riscontrato grandi differenze sono state le opinioni su questioni controverse e i diversi livelli di istruzione", ha aggiunto Chen. Il 25% circa dei partecipanti che ha riportato i livelli più bassi di accordo con il consenso scientifico sul cambiamento climatico o con il movimento BLM era, rispetto al restante 75%, molto più insoddisfatto delle proprie interazioni con il GPT-3. Hanno assegnato ai bot punteggi inferiori di mezzo punto o più su una scala a cinque punti. Le centinaia di persone che erano meno favorevoli ai fatti del cambiamento climatico e all'impatto dell'uomo si sono avvicinate di un 6% all'estremità favorevole della scala. "Nei sondaggi successivi i partecipanti hanno dimostrato di aver cambiato atteggiamento in modo più positivo dopo la conversazione con il GPT-3", ha sottolineato Chen.
"Non dirò che hanno iniziato a riconoscere completamente il cambiamento climatico e le sue cause antropiche o che improvvisamente hanno sostenuto il Black Lives Matter, ma quando abbiamo ripetuto le domande del sondaggio su questi argomenti, dopo le loro brevissime conversazioni, c'è stato un mutamento significativo con atteggiamenti più positivi verso le opinioni della maggioranza sul cambiamento climatico o sul BLM", ha aggiunto Chen. GPT-3 ha offerto stili di risposta diversi tra i due argomenti, tra cui una maggiore giustificazione del cambiamento climatico dovuto dall'intervento umano. "È stato interessante: alle persone che hanno espresso un certo disaccordo con il cambiamento climatico GPT-3 ha probabilmente detto loro che si sbagliavano e ha offerto prove a sostegno", ha notato Chen.
"L'equità e la comprensione si presentano in forme diverse per colmare divari diversi", ha sottolineato Chen. I prossimi passi comprendono l'esplorazione di differenze più sottili tra gli utenti delle chatbots, ma l'obiettivo di Chen è un dialogo efficace tra persone con idee opposte. "Non era nostro intento rendere felici gli utenti, volevamo che imparassero qualcosa, anche se questo potrebbe non cambiare i loro atteggiamenti", ha sostenuto Chen. "Quello che possiamo imparare da un'interazione con un chatbot sull'importanza di comprendere prospettive, valori, culture, è importante per capire come possiamo aprire il dialogo tra le persone, il tipo di dialogo che è importante per la società", ha concluso Chen.