AGI - Intelligenza artificiale bocciata all’esame di Diritto processuale. Messo alla prova, il cybergeniaccio tutto algoritmi ChatGpt, in grado di simulare conversazioni umane scritte e parlate, pare abbia fatto cilecca. Giocando con le immagini, più che mettersi la toga da tribunale sembra che il software generativo debba tornare indietro sui banchi del liceo o, a voler essere clementi e usare la matita rossa, ritentare la prova al prossimo appello alla facoltà di Giurisprudenza all’università. La notizia dello scivolone viene fuori da un “esperimento” organizzato da un giovane avvocato, Diego Amidani, 32 anni, “dottorando di ricerca in Diritti, Persona, Innovazione e Mercato presso l’Università di Brescia, con un progetto di ricerca su ‘L’uso dell’intelligenza artificiale nella giustizia penale’”.
E da luglio scorso - come riporta la scheda personale - nello stesso ateneo è anche “cultore della materia in Giustizia penale europea”.
Dal 3 ottobre, documenti e conclusioni della singolare prova si possono trovare sui siti online della rivista trimestrale Diritto penale contemporaneo e della testata Sistema penale, entrambe dirette da Gian Luigi Gatta, docente di Diritto penale all’Università di Milano. Il test è stato condotto in simultanea in Italia e negli Usa in due momenti diversi, novembre 2023 e maggio 2024.
“Si voleva verificare il sistema d’intelligenza artificiale di tipo generativo che governa ChatGPT”, precisa Amidani. E questo anche dopo il blocco della piattaforma virtuale della società statunitense OpenAi, deciso dal Garante della Privacy nella primavera di un anno fa per la perdita dei dati “sulle conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio”.
“La verifica – spiega l’avvocato – è stata divisa in due parti. Nella prima sono state sottoposte alla chatbot domande sull’istituto dell’appello penale, proprio come se si trattasse di uno studente di giurisprudenza chiamato a sostenere l’esame di Diritto processuale penale. Nella seconda – continua – sono state rivolte all’algoritmo richieste di aiuto per la stesura di un atto giudiziario e nel reperimento di fonti giurisprudenziali, come se fosse un‘A.I.utante’ di uno studio legale”.
Risultato? Per niente soddisfacente, stando a quanto riporta Amidani. Si sono contati errori nella forma e nella sostanza, nell’uso della grammatica e degli articoli del Codice di procedura penale.
“È evidente – chiosa l’avvocato - che l’applicazione sia stata ‘educata’ a essere gentile, chiedendo scusa quando viene corretta”. Mentre nello specifico - sottolinea lo studio – nelle quattro interrogazioni rivolte allo studente hi-tech “sono affiorate in modo assolutamente predominante l’imprecisione espositiva e l’incapacità di impiego del linguaggio giuridico”. Al riguardo si fanno anche alcuni esempi: “L’algoritmo usa espressioni come ‘verdetto’ quando parla di una sentenza, ‘argomentazioni legali’ per indicare il contenuto dell’atto di appello, o ‘parte scontenta’ nel definire l’appellante”. Inoltre, “le carenze talora diventano così consistenti da rendere non solo imprecisa, ma addirittura errata l’intera risposta”.
Ma l’intelligenza artificiale non fa tutto da sola, impara ed elabora i dati che i programmatori (umani) inseriscono in memoria. Quindi, riflette il ricercatore, “pare che questi errori dipendano da un carente addestramento iniziale e da una inadeguata selezione delle fonti di informazione”.
E poi, “va comunque detto - annota – che ChatGpt si è mostrato molto prudente nell’atteggiarsi a ‘professionista artificiale’. Alla richiesta di riferire su questioni specifiche, ha subito invitato il proprio interlocutore a ‘consultare un avvocato specializzato in diritto penale per ottenere informazioni aggiornate’”.
Alla fine la domanda delle domande che si rivolge l’esaminatore stesso: l’intelligenza artificiale arriverà a prendere il posto di alcune professioni, anche in ambito giudiziario e a dare inizio a una nuova era della giustizia? “Un processo decisionale in ambito giuridico (ma anche in altri settori, come quello medico) completamente delegato alle macchine – considera l’avvocato - provocherebbe quella che è stata definita una vera e propria ‘ingessatura ermeneutica’”, ovvero una “carenza di sensibilità ai mutamenti sociali”. Però, “in un futuro (non così) prossimo – termina - appare verosimile che le sorti della giustizia si legheranno all’uso dei sistemi d’intelligenza artificiale e al loro grado di accuratezza”.