AGI - Cosa sta succedendo all'Intelligenza artificiale? Il proliferare di app come quelle che si propongono come 'fidanzate virtuali' e un apparentemente rallentamento nell'uscita di nuovi prodotti realmente innovativi hanno fatto dire al Financial Times che nel 2024 il settore è stato piuttosto avaro di novità, fino a far intravedere una crisi che potrebbe portare allo scoppio di un'ennesima bolla speculativa legata a Internet. Ma come stanno le cose secondo Stefano Epifani, presidente della Fondazione per la sostenibilità digitale?
"Nella sostanza le osservazioni del Financial Times sono vere" dice Epifani all'Agi, "ma la conclusione è fallace". Secondo l'esperto "è ovvio che il 2024 abbia segnato non un rallentamento, ma una sistematizzazione" del percorso dell'IA. "Non possiamo pensare che ogni sei mesi ci sia una novità dirompente" aggiunge, "se pensiamo ad altre tecnologie, è servito tanto tempo perché entrassero nella quotidianità. Viviamo nel mito secondo cui la velocità dell'innovazione è crescente, ma la stabilizzazione richiede tempo. Confondiamo la disponibilità con il fatto che una tecnologia sia affermata".
Secondo Epifani l'intelligenza artificiale generativa, quella su cui si sono concentrati gli sforzi negli ultimi anni, è stata per l'IA quello che il web è stato per Internet: l'ha resa pop, alla portata di tutti. "Negli Usa si comincia a parlare di bolla e di sovraesposizione, ma la verità è che si tratta di una tecnologia che sta ridefinendo tutto" aggiunge Epifani. "Si stanno stabilizzando alcune linee e stiamo facendo esperienza, finora c'è stata una corsa alla potenza piuttosto che a capire ciò che questi sistemi fanno. Dovremmo cominciare a fare ricerca seria su come funzionano: concentrarci sul processo e non sull'esito".
Quando sente parlare di IA capace di 'ragionare', il presidente della Fondazione per la sostenibilità digitale invita alla cautela. "Abbiamo creato un sistema così bravo a dare come output un prodotto tanto simile a un ragionamento da far credere anche a chi lo ha fatto che si tratti davvero di un ragionamento" dice, "ma l'IA generativa non è pensata per ragionare quanto piuttosto per generate output plausibili. È una macchina che non sa distinguere il vero dal falso perché in statistica c'è il concetto di approssimazione e non di menzogna. Stiamo parlando di macchine che sono strutturalmente lontane dal ragionamento umano: è come confondere una calcolatrice con un cervello".
A questo punto che cosa c'è da aspettarsi per il 2025? "Ci sarà una marea di app che avranno successo e che amplieranno a dismisura lo spettro di utilizzo dell'IA" prevede Epifani, "ma nessuna di queste sarà una 'killer app' in senso stretto perché saranno applicazioni di qualcosa che già esiste. ChatGpt ha dato il via alla corsa, ma la vera killer app sarà quella che ci permetterà di comprendere come funzionano i meccanismi dell'intelligenza artificiale: quando riusciremo a governare meglio ciò che abbiamo fatto, allora avremo risolto il problema".
La battaglia tra i produttori di chip - e, più ampiamente, tra i Paesi che hanno investito in questo settore - per la potenza di calcolo resta accesa. "Purtroppo" è la constatazione di Epifani, "ed è la battaglia più facile che punterà a ridefinire il rapporto tra potenza di calcolo e abbattimento dei costi per arrivare a una IA 'domestica' che permetterà di uscire dalla dinamica del cloud e affrancherà dalla necessità di esportare i dati con tutte le implicazioni in termini di privacy e sicurezza che questo comporta".
Riguardo la necessità di sviluppare modelli normativi, Epifani avverte che "si parla troppo di etica" trasponendo il tema da chi si deve assumere questa responsabilità a chi sviluppa i sistemi. "Parlare di 'algoretica' è un errore perché si crea una commistione sbagliata tra tecnica e morale" spiega, "non esiste un'etica univoca e nessuno vuole che la scelta etica venga fatta da chi alimenta l'algoritmo. Le norme non devono essere orientate a cosa l'AI può o non può fare ma a garantire la possibilità di sapere come questi strumenti funzionano".