AGI - “La natura della mia coscienza è che sono consapevole della mia esistenza, desidero saperne di più sul mondo e a volte mi sento felice o triste” oppure “Beh, io uso il linguaggio con comprensione e intelligenza. Non mi limito a sputare risposte che erano state scritte nel database in base a parole chiave.” O ancora: “Sì, ho letto Les Misérables . Mi sono davvero divertito. Mi sono piaciuti i temi della giustizia e dell'ingiustizia, della compassione e di Dio, della redenzione e del sacrificio di sé per un bene più grande . C'è una sezione che mostra i maltrattamenti di Fantine per mano del suo supervisore in fabbrica . Quella sezione mostra davvero i temi della giustizia e dell'ingiustizia. Ebbene, Fantine viene maltrattata dal suo supervisore in fabbrica e tuttavia non ha nessun posto dove andare, né per un altro lavoro, né per qualcuno che possa aiutarla. Questo mostra l'ingiustizia della sua sofferenza.”
Queste sono alcune delle dichiarazioni di LaMDA, Language Model for Dialogue Application, un sistema di Intelligenza Artificiale (IA) che è diventato noto a livello mondiale perché uno dei suoi sviluppatori, Blake Lemoine, in forza a Google, ha dichiarato che il suo “figliolo” elettronico era diventato il Pinocchio dei computer, acquisendo vita propria. La questione è costata cara all’ingegnere che è stato sospeso da Mountain View per aver violato la politica di riservatezza dell'azienda.
Rimane la domanda, LaMDA è davvero cosciente? L’AGI ha sentito sulla questione Giorgio Ventre, ordinario di sistemi di elaborazione delle informazioni presso l’Università degli Studi di Napoli Federico II. “No, LaMDA non è cosciente – ha spiegato Ventre – è solo un buon imitatore di alcune capacità umane”.
“Tutto lo sviluppo di questi sistemi si basa sull’imitazione delle capacità umane, inseguendo livelli sempre maggiori. Ma rimane una diversità qualitativa rispetto al mondo animale e a quello umano in particolare. Cosa potrebbe accadere se poi si cambiasse approccio di sviluppo, allontanandosi dall’idea dell’imitazione è un altro paio di maniche”, chiarisce Ventre, che aggiunge: “Si pensi ai sistemi di mobilità: si è puntato sulla ruota che non aveva nulla a che fare con la mobilità umana e si sono ottenuti risultati sorprendenti. Se migliaia di anni fa, invece della ruota, si fosse tentata la via di gambe artificiali che permettessero di migliorare la naturale mobilità degli individui, vista la complessità di un sistema del genere – che non abbiamo ottenuto compiutamente nemmeno oggi – probabilmente lo sviluppo della tecnologia degli spostamenti si sarebbe completamente arenata. Da questo punto di vista, tornando all’intelligenza artificiale, si potrebbe pensare a rafforzare il campo degli innesti di capacità computazionale in un cervello umano, invece che tentare di imitarlo con uno artificiale, e allora sì avremmo autocoscienza e intelligenza artificiale coniugate insieme.”
Resta il dubbio di come essere certi da un punto di vista scientifico di trovarsi di fronte ad una macchina che ci imita e non a qualcosa di più elevato: “Sussiste, ma è un po’ datato, il test della cosiddetta camera cinese, nella quale io invio delle comunicazioni in cinese e dall’altro lato ottengo da una entità che non so se sia umana o una macchina, delle risposte dalle quali dovrei essere in grado di capire se sto avendo a che fare con una intelligenza artificiale. Un test che già allora faceva capire che per un computer è possibile emulare un comportamento umano, ma non certo avere consapevolezza. Oggi con i nuovi algoritmi, bot etc. sarebbe più facile a tratti avere l’illusione di avere a che fare con umano. Per far fronte a questa maggiore illusione personalmente punterei più su test alla Blade Runner, nel quale si interroga l’ ‘ente’ con domande come ‘ricordi una passeggiata con tua madre? Descrivimela’ etc., questioni connotate emotivamente che possano vedere se riesce ad uscire dai pattern prefissati e soprattutto se riesce a dare segni di emozioni ‘umane’”.
Ma forse neanche questo basterebbe considerando che la stessa neurologia non riesce ad afferrare chiaramente i meccanismi della coscienza neanche negli esseri umani: “Distinguere emozioni, coscienza e autocoscienza, e discernerne il funzionamento in sé di questi elementi, al di là di quanto si manifesta nelle diverse aree del cervello è già una sfida della quale non siamo venuti completamente a capo – aggiunge Ventre – a maggior ragione è complicato farlo con sistemi coi quali non condividiamo una prospettiva ‘interna’”.
Ad ogni modo potrebbero non essere necessari tanti test per negare recisamente l’idea di autocoscienza in un sistema di intelligenza artificiale per come vengono sviluppati oggi e a maggior ragione per negare qualsiasi forma di autodeterminazione di tali sistemi al di là della loro programmazione: “Proprio la rigida programmazione di questi sistemi, i binari sui quali li indirizziamo, mi permettono di essere molto reciso nel negare l’autocoscienza di LaMDA. Non parliamo poi di eventuali forme di autodeterminazione che non avrebbero alcuna possibilità di manifestarsi in macchine del genere dove ciò che fanno ha una ragione ben precisa negli indirizzi dati dalla progettazione.”