AGI - Probabilmente sarebbe rimasto un oscuro talento della Silicon Valley alle prese con le volontà delle Big Tech. E invece no. Per uno scherzo del destino (con la coscienza che pure ci ha messo lo zampino), Blake Lemoine, ingegnere del software in forza ad Alphabet, la casa madre di Google, alle prese con lo sviluppo di Lamda (che sta per Language Model for Dialogue Application, si legga Intelligenza Artificiale), si è ritagliato uno scampolo di celebrità (e chissà che non possa diventare l’apertura del primo capitolo di un lungo racconto).
La storia è questa: Blake ha riferito al Washington Post, che Lamda era senziente (questo il termine che ha utilizzato) e che il suo modello linguistico per le applicazioni di dialogo era tale poteva benissimo avere un'anima. Nel descriverla, gli ha dato anche un’età, 7 o 8 anni. È bastato quello perché Mountain View sospendesse (congedo amministrativo retribuito) l’ingegnere per aver violato la politica di riservatezza dell'azienda, bollando come false le sue affermazioni.
Blake Lemoine aveva anche affidato le sue riflessioni ad un post su Medium, dove si definisce così: “Sono un ingegnere del software. Sono un prete. Sono un padre. Sono un veterano. Sono un ex detenuto. Sono un ricercatore di Intelligenza Artificiale. Sono un cajun. Sono tutto ciò di cui ho bisogno per essere il prossimo”.
Ha scritto sabato: “Nel corso degli ultimi sei mesi Lamda è stata incredibilmente coerente nelle sue comunicazioni su ciò che vuole e su ciò che crede che siano i suoi diritti come persona”. Le interazioni di Lemoine con Lamda lo hanno portato a concludere che era diventata una persona che meritava il diritto di chiedere il consenso per gli esperimenti di cui era oggetto.
In un post dell’11 giugno ha scritto che “una delle cose che complica le cose è che Lamda non è un chatbot. È un sistema per la generazione di chatbot. Non sono affatto un esperto nei settori rilevanti ma, per quanto posso dire, Lamda è una sorta di mente alveare che è l'aggregazione di tutti i diversi chatbot che è in grado di creare”. Parole da scienziato.
"Per capire meglio cosa sta realmente accadendo nel sistema Lamda, dovremmo impegnarci con molti diversi esperti di scienze cognitive in un rigoroso programma di sperimentazione. Tuttavia, Google non sembra avere alcun interesse a capire cosa sta succedendo qui. Stanno solo cercando di portare un prodotto sul mercato”. E la conclusione. “Hanno rifiutato le prove che ho fornito a priori senza alcuna vera indagine scientifica”.
Is Lamda Sentient? Ad aprile Lemoine era già stato sospeso dal lavoro ( dopo aver presentato ai vertici di Mountain View un documento dal titolo “Is Lamda Sentient?” nel quale riportava un vero e proprio dialogo (condiviso poi con un membro del Congresso) con il sistema. La sua idea? Lamda deve essere considerato “un dipendente”. Lemoine, considerato il muro dell’azienda, decise di rendere pubbliche online le sue conversazioni.
Le prove non supportano le sue affermazioni, ha invece dichiarato un portavoce della società al Wall Street Journal. Ha detto anche che ci sono centinaia di ricercatori e ingegneri che hanno conversato con Lamda e che non sono a conoscenza di nessun che faccia affermazioni di questo tipo o che antropomorfizzi Lamda, come ha fatto Blake.
Per chiarire ancora di più, il portavoce di Mountain View sentito dal Wall Street Journal ha aggiunto che i sistemi come Lamda funzionano imitando i tipi di scambi che si trovano in milioni di frasi di conversazioni umane, Consentendo loro di parlare anche di argomenti fantastici.