“L’intelligenza artificiale è una scienza che fonda le sue radici nella matematica, ma non ha nessuna capacità di autogenerarsi né autoscriversi né di evolversi, è ancorata saldamente ai dati che la creano. È molto potente ma non corriamo alcun rischio che possa prendere il sopravvento sull’uomo”. Nicola Grandis, Ceo di Asc27, startup che ha raggiunto vette molto elevate nella cyber security e che oggi modera ben due tavole rotonde alla seconda edizione del Festival Nazionale delle Università a Roma, risponde in questo modo in quest’intervista all’AGI sul futuro dell’AI
Sono trascorsi forse meno di sei mesi da quando è arrivata sul mercato ChatGPT e, fatto curioso, tra diversi padri e padrini dell’Intelligenza artificiale si sono già ripensamenti. C’è davvero di che temere?
“Domanda più che opportuna, perché c’è bisogno di chiarezza che in questo momento forse manca. Ho ascoltato la deposizione al Senato americano di Ted Sanders di OpenAI e ho letto pure l’intervista di Geoffrey Hinton al New York Times, ma in realtà loro non è che abbiano avuto grandi ripensamenti. Hanno giustamente parlato delle problematiche che potrebbero emergere sulla base dell’utilizzo dell’intelligenza artificiale da parte di attori ostili. In verità, loro parlavano dell’AI non come problema ma come tecnologia che, se usata male, può causare grandi danni”.
Hanno segnalato i pericoli derivanti da possibili interferenze…
“Esatto. A me fa molto piacere che in questo momento ci sia attenzione, perché come Asc27 l’anno scorso abbiamo promosso la prima volta in Italia un meeting con l’Organismo di standardizzazione sull’intelligenza artificiale incaricato dalla Commissione europea per analizzare i rischi proprio in base all’utilizzo dell’intelligenza artificiale di cui ci occupiamo da tempi non sospetti. Sono felice che la discussione stia diventando pubblica. Sicuramente è un tema su cui fare attenzione perché come tutte le tecnologie emergenti ci saranno sempre persone intenzionate a non lavorare bene e che se ne vogliono approfittare. L’importante è costruire regole che consentano tutti gli utilizzi positivi della tecnologia”.
C’è un settore dove l’applicazione della AI può essere più pericolosa o rischiosa?
“Tra i settori che ultimamente più attenzionati e a rischio ci sono quelli legati ai sistemi d’arma, come missili o altri oggetti balistici che possono utilizzare l’intelligenza artificiale per identificare degli obiettivi. In realtà non si tratta di una novità, la tecnologia è disponibile quasi da un decennio, però ovviamente questo è un tema molto caldo e sotto i riflettori c’è anche quello della misinformation, la diffusione delle false informazioni, anche se pure questo è un tema che ha più di 50 anni. Se ne parlava già durante la Seconda guerra mondiale, ma ora con l’intelligenza artificiale viene alla ribalta più che altro perché c’è una sorta di democratizzazione della tecnologia. Quindi se durante la Seconda guerra solo un’autorità statale poteva avere le risorse per generare false informazioni e condizionare il percorso elettorale di un’altra nazione, oggi è più alla portata di tutti e il leaker malevolo con una piccola organizzazione può creare molti danni utilizzando la tecnologia”.
“Non c’è alcuna possibilita’ che l’AI possa prendere il sopravvento”
Questo per i settori a rischio, ma per quelli non a rischio?
“Per i settori dove l’intelligenza artificiale sta dando una grande mano basta guardare al mondo della sanità e la pandemia che abbiamo appena superato. È un buon esempio di utilizzo benefico dell’AI per l’umanità”.
Quanto è fondato il timore avveniristico che l’intelligenza artificiale possa prendere il sopravvento sull’uomo e governarlo?
“Questo rischio, almeno a livello industriale, tecnico-scientifico, allo stato attuale è del tutto inesistente. Proprio una settimana fa c’è stata anche una pubblicazione di un gruppo di ricerca dello Stanford Institute su questo tema proprio per smorzare un po’ questo hype propagandistico, millenaristico che si stava creando di un’intelligenza artificiale che avrebbe preso il possesso delle capacità cognitive. No, non esiste niente di tutto ciò. L’intelligenza artificiale è una scienza fonda le sue radici nella matematica, ma non ha nessuna capacità di autogenerarsi né autoscriversi né di evolversi, è ancorata ai dati che la creano. È molto potente ma non corriamo rischi di questo tipo”.
È solo un corollario fantascientifico che si alimenta per pregiudizio?
“Sì, io ne parlo un po’ come quando nell’anno zero avevamo paura della cometa di Halley e pensavamo ogni volta che la vedevamo doveva finire il mondo…, non è così. È come il Millennium Bug, è un hype media, non c’è nessun rischio all’orizzonte e siamo lontanissimi anni luce da un’intelligenza artificiale che possa fare una cosa simile”.
Ma c’è un altro tema su cui si discute molto, ed è l’occupazione. L’AI una minaccia o avrà invece effetti espansivi e migliorativi?
“Ho negli occhi un’immagine del 1956, c’erano dei professori davanti al Congresso americano con dei cartelli che chiedevano ai deputati di bannare le calcolatrici perché altrimenti gli studenti non avrebbero più studiato la matematica. Sono passati settant’anni e l’America va avanti. Sull’occupazione c’è un rapporto recente di un altro gruppo di ricerca dello Stanford Institute che ha fatto un’analisi in base alla quale le aziende che si occupano d’intelligenza artificiale hanno un incremento occupazionale di circa il 20% medio proprio perché potendo diventare più produttive hanno la capacità di fare investimenti magari espandendo il proprio mercato o la penetrazione nei marcati di riferimento e, quindi, riescono ad assumere più personale. È una prospettiva realistica, in queste aziende nessuno ha mai licenziato nessuno”.
Questo per le aziende che si occupano di AI, ma per tutti gli altri che la subiscono?
“Sicuramente l’intelligenza artificiale modificherà il mondo del lavoro, ma questo è un processo evolutivo proprio del mondo del lavoro stesso, che va avanti da sé: siamo passati dalla macchina da scrivere al Pc, dal Pc allo smartphone e da questo all’intelligenza artificiale, ma è una evoluzione nelle cose, normale”.
“Nel giornalismo resistenze industriali e sistemi editoriali vecchiotti”
E nel campo del giornalismo?
“Nel mercato del giornalismo, proprio come Asc27 abbiamo sviluppato una soluzione che si chiama Asimov, soluzione proprio per la news industry, per portare l’AI nel mondo delle relazioni. La cosa un po’ imbarazzante è che siamo riusciti a farlo meglio all’estero che in Italia, nonostante il prodotto sia italiano…”
Prevenzione?
“All’inizio pensavamo fosse una resistenza al cambiamento dei giornalisti, dei redattori, in realtà abbiamo poi scoperto che non si trattava di questo perché già molti giornalisti utilizzano privatamente la nostra piattaforma. Più che altro – almeno in Italia – è un’industria indietro dal punto di vista industriale, tecnologico, rispetto ad altre industrie. Quindi probabilmente assorbirà anche lei l’intelligenza artificiale ma lo farà un po’ a rimorchio nei mesi e negli anni a venire”.
E all’estero?
“Abbiamo visto che è accolta in modo più smart. In Italia la resistenza è a livello proprio industriale, dell’IT che gestisce le relazioni. De resto nella stampa anche i sistemi editoriali stessi utilizzati sono un po’ troppo vecchiotti…”.
E l’atteggiamento della classe giornalistica?
“Molti sono entusiasti. Abbiamo molti amici che usano la nostra piattaforma privatamente per il proprio lavoro, anche tutti i giorni, e si trovano molto bene perché è una piattaforma che li solleva da quel lavoro tedioso, meccanico che va fatto. Asimov non punta a creare una redazione automatica per sostituire i giornalisti, ma vuole sollevare il giornalista da attività ripetitive e tediose in modo che possa avere più tempo per dedicarsi alla parte intuitiva e creativa del suo lavoro. Nella ricerca ma anche nella pubblicazione, perché quella digitale richiede per esempio inserire metatag, keyword, frasi per i motori di ricerca, tutta una serie di cose che nulla hanno a che fare con la creatività ma sono molto meccaniche. Al giornalista fanno perdere molto tempo come per esempio, nel suo caso, dover sbobinare un’intervista… Ecco l’AI anche nel giornalismo è intesa per questi scopi, ma a livello di redazioni italiane c’è molta resistenza su questo punto, più di tipo provinciale. Una lenta capacità evolutiva, soprattutto a livello industriale”.
Una sua previsione e un consiglio?
“I figli ne vedranno delle belle. L’AI è in continua evoluzione perché cresce insieme ai modelli matematici che la supportano. Sei mesi fa è uscita ChatGPT, che a livello tecnologico e scientifico è progetto vecchio di almeno quattro anni, già ora a livello scientifico siamo molto più avanti. Immagino che l’intelligenza artificiale ci aiuterà molto di più nel futuro e il mio consiglio è quello di prepararsi e osservare le nuove professioni che nasceranno con l’adozione dell’AI. Le nuove abilità che avremo grazie a essa, in quanto esse genereranno grandissime opportunità per chi le saprà cogliere”.