AGI - Stati Uniti e Giappone sono i paesi capofila in fatto di produzione di brevetti nelle tecnologie di Intelligenza Artificiale. Segue la Cina. Il resto va all’Europa. In Italia siamo prossimi allo zero. La spesa per ricerca e sviluppo i paesi leader sono sempre gli stessi. Con la Cina che avanza.
Paola Severino, ex ministro della Giustizia, presidente della SNA – Scuola Nazionale dell’Amministrazione, Vice Presidente di Luiss Guido Carli, è autrice e curatrice del libro “Intelligenza artificiale. Politica, economia, diritto, tecnologia”.
Obiettivo del volume (a più voci) è comprendere la natura e offrire un primo inquadramento (necessariamente multidisciplinare) da diverse prospettive ai dilemmi più urgenti in fatto di Intelligenza Artificiale.
Sullo sfondo l’impatto che questa tecnologia ha avuto nelle nostre vite e il mutamento epocale che ha determinato. La pervasività degli strumenti digitali invade il mondo e sempre più si corre il rischio di non riuscire a controllare macchine pensanti che diventano da automatiche ad autonome.
Etica e diritto
"Fino a poco tempo il tema dell’Intelligenza Artificiale era riservato a pochi mentre oggi, soprattutto in seguito allo scoppio del conflitto ucraino, siamo tutti interessati e guardiamo con terrore al rischio che una macchina intelligente possa scatenare una guerra mondiale solo perché ha male interpretato un segnale", sottolinea Paola Severino.
In seguito a due eventi drammatici, la pandemia e la guerra "l’IA ha ricevuto un intensificazione di attenzione", ora però è necessario fissare dei paletti. Sul tavolo ci sono fattispecie che sono già fra noi e che vanno in qualche modo regolate: il giudice robot e le auto che si guidano da sole. Con le macchine che acquisiscono la capacità di autocorreggersi chi è responsabile in caso di incidente? È l’inventore o la macchina? È un tema che le assicurazioni già si stanno ponendo. Un legislatore deve prevedere l’evoluzione del fenomeno e cercare di dare norme armonizzate con altri paesi".
Ha detto ancora Severino nel corso di un dibattito nella sede dell'Istituto Affari Internazionali. "Noi giuristi dobbiamo essere nel futuro per porre in essere norme adeguate al fenomeno. L’IA e l’analisi dei dati può essere utilizzata, ma - ha precisato - non può essere la sola fonte di giudizio".
Ha ribadito poi il valore della "completezza della valutazione umana. IA sì, ma non sostituzione dell’uomo. Dobbiamo essere avanti, veloci e proiettati nel futuro".
Democrazia e nuove tecnologie
La riflessione di Sebastiano Maffettone, direttore di Ethos Luiss Business School, verte sul concetto di "sostenibilità digitale". Le nuove tecnologie, quindi anche l’Intelligenza Artificiale, "vanno comprese e trattate. Non si tratta di alzare i muri. Gli algoritmi, è vero, possono limitare la libertà: sono numeri, non comprendono il contesto". E la politica? "Il primo problema è il controllo".
Il dilemma delle black box e la trasparenza degli algoritmi
"Uno dei problemi fondamentali dell’IA - ha sottolineato Giuseppe Italiano, professore ordinario di Machine Learning alla Luiss Guido Carli - è che sono molto complesse, gli algoritmi sono scatole nere, black box, e non si riesce a capire cosa c’è dentro, cosa succede. Dentro queste tecnologie ci sono miliardi di neuroni artificiali, ognuno di loro fa un piccolo compito ma non sappiamo perché c’è un determinato segnale in uscita. Nonostante questo hanno generato risultati incredibili: riconoscono cellule tumorali, sintetizzano nuovi farmaci".
Che sta succedendo al mondo dell’Intelligenza Artificiale? "Sta succedendo che molti algoritmi, da automatici, stanno diventando autonomi, prendono cioè decisioni". Seguono, in particolare, transazioni finanziarie, influenzano decisioni importanti per la collettività, guidano veicoli. È necessario per Italiano "riuscire a rendere trasparenti i comportamenti degli algoritmi" e far sì che "questi comportamenti siano nell’interesse di tutti, non di poche persone".
Dunque i dati. "Per operare al meglio agli algoritmi servono dati, tanti". Se per esempio ho bisogno di assumere, avrò necessità di dati storici. Quanto rischio c’è che si possano replicare pregiudizi del passato, come ad esempio nei confronti delle donne?
Economia e polarizzazione
Dalle transazioni finanziarie alla geopolitica dell’Intelligenza Artificiale. Ad occuparsi di economia nel libro di Paola Severino e anche nell’incontro allo Iai è stato Stefano Manzocchi, prorettore per la Ricerca alla Luiss Guido Carli. Partiamo dalla mappa con la distribuzione geografica dei brevetti legati all’Intelligenza Artificiale: Stati Uniti e Giappone guidano la classifica con 27 e il 25%, la Cina è al terzo posto con il 16%, segue l’Europa con l’11%, l’Italia ha percentuali vicine allo 0.
"Il tema della polarizzazione è un tema che attraversa tante dimensioni economiche dell’Intelligenza Artificiale. Da quelle mappe emerge una polarizzazione forte delle economie: dove conta chi ha investito prima, chi ha beneficiato di risorse pubbliche, le percentuali in spesa in ricerca e sviluppo".
Il vantaggio dei singoli stati "tende poi a replicarsi e consolidarsi". La polarizzazione è trasversale, crea leadership, riguarda "il mercato del lavoro (il tema del divario delle competenze e della marginalizzazione di alcune professioni) e anche il mercato delle imprese".
Sicurezza, difesa e human in the loop
La complessità delle tecnologie di Intelligenza Artificiale impatta anche con la difesa. A fare il punto tra Intelligenza Artificiale e applicazioni militari è stato Alessandro Marrone, Responsabile Programma Difesa, Istituto Affari Internazionali. "L’IA fa parte di equipaggiamenti militari. Parliamo di investimenti nel settore missilistico, spaziale, aeronautico".
Altro punto. "Il settore militare, se escludiamo gli Stati Uniti, non è quello più innovativo". Questo perché "nelle forze armate ci sono grandi ostacoli all’introduzione dell’IA soprattutto in Europa, che si riflettono anche in ambito NATO". In tema di capacità militari il "settore dove si investe di più in Intelligenza Artificiale è la difesa antimissile".
Pensiamo ai missili supersonici, "poche decine di secondi guadagnati sono preziosi". Ma, ha ricordato Marrone, l’Intelligenza Artificiale si ferma alla definizione degli scenari e delle opzioni. "La decisione spetta sempre all’ufficiale responsabile, secondo la catena di comando e secondo il principio dello Human in the loop". Nello spazio poi IA ha un ruolo ancora maggiore "soprattutto nell’intelligence, nella comunicazione satellitare e nei servizi in orbita".
E i droni? "lI fatto che i droni siano sistemi che volano senza piloti a bordo non vuol dire che volano da soli". Sono veicoli a pilotaggio remoto "e la decisione di colpire un obiettivo rimane una decisione militare e politica. È l’uomo che prende decisioni nei momenti cruciali".