AGI - Uno di messaggi che più spesso si sentono in sede di Governo e anche recentemente di G7 è “l’uomo sia al centro dell’intelligenza artificiale”. Così il ministro dell’Impresa e del Made in Italy Adolfo Urso a conclusione del G7 dell’Industria recentemente organizzato a Verona e Trento. Ma si tratta di una frase ricorrente, pronunciata più e più volte sia da componenti del Governo sia dell’opposizione. Secondo l’esperto di cybersicurezza e strategic business director di Tinexta Cyber Pierguido Iezzi questo concetto non scoglie tutti i nodi della questione.
“L’uomo è già al centro dell’intelligenza artificiale – ha spiegato all’AGI – ma non perché questo sia stato scelto in maniera etica e virtuosa, ma perché l’IA, proprio perché antropocentrica in concezione è fallibile quanto il suo creatore: per la modalità con cui raccoglie i dati, le fonti, l’algoritmo, i possibili rischi, la possibile manipolazione dell’algoritmo. Per un concetto di base: se fornisci un input sbagliato, avrai inevitabilmente un output sbagliato. È proprio la sua architettura a mettere l’uomo al centro ed è proprio qui che sta la sua fallibilità”.
I conflitti in corso in più parti del mondo, in primis quello tra Russia e Ucraina, ma anche quello in Medio Oriente e le sue ripercussioni nel Mar Rosso, ne sono la dimostrazione. L’intelligenza artificiale è un alleato in processi decisionali che sono comunque gestiti, architettati, impostati dall’uomo.
“Il G7 deve quindi cambiare la domanda – prosegue Iezzi – e mettere al centro l’affidabilità di un sistema di IA. Bene le regole e regolamenti ma dobbiamo puntare a formare cittadini e affrontare il tema di un cambio delle abitudini di una intera nazione e società”.
Il rischio è ripetere quanto accaduto con i social network quando la (quasi) piena consapevolezza dei rischi legati al loro utilizzo è arrivata più di un decennio dopo la loro diffusione. E non ve dimenticato che nel caso dell’intelligenza artificiale sottovalutare i pericoli connessi rischierebbe di avere effetti ben più devastanti.
“Si è sovrani dei propri dati per davvero solo se si ha la piena consapevolezza di cosa può significare questo – ha infine concluso – la realtà è che non esiste un programma di formazione e sensibilizzazione mirato a prepararci al nuovo. Se l’uomo deve essere davvero al centro deve sapere quali sono i margini, le opportunità, i possibili rischi. Serve una formazione per un vero change habit AI management”, solo così l’uomo resta al centro. E qui l’alleanza pubblico-privato è strategica perché se io formo un dipendente questo diventa un portatore sano di conoscenza che poi diffonderà a casa sua, tra gli amici, tra la sua cerchia di conoscenti. Questo è il vero tema. E su questo Governo – in maniera bipartisan – e G7 si devono interrogare”.