Nei prossimi giorni alla Camera si discuterà un argomento particolarmente delicato riguardante l’utilizzo, in ambito bellico, d’armi pilotate interamente da un’Intelligenza Artificiale e che portano all’eliminazione del consenso umano. Sono sempre stato un sostenitore dell’IA, poiché la ritengo una delle rivoluzioni della storia umana che può apportare davvero più benefici che problemi. Perché? Grazie al potenziamento delle macchine, l’uomo può tornare ad essere quello che è, un essere umano, e dedicarsi ad attività più qualitative lasciando all’automazione quei task stupidi e ripetitivi che rendono l’uomo un automa. Le potenzialità sono enormi… ma ricordiamoci che l’uomo è anche l’unico essere vivente che ha volutamente creato armi in grado di distruggerlo.
Dopo l’invenzione della bomba atomica, siamo passati ai droni pilotati da remoto (alcuni in dotazioni anche all’Italia) ed ai robot da combattimento. Ora, siamo arrivati a concepire Autonomous Weapons Systems, ovvero armi con sistema autonomo che, una volta attivati, possono selezionare ed agganciare bersagli senza l’intervento di un operatore umano. Ripetiamo: armi dotate di un’intelligenza artificiale che le rende in grado d’agganciare bersagli, umani e non, in modo indipendente e senza l’autorizzazione da parte di una persona dedicata. Ma perché una macchina dovrebbe attaccare qualcuno in modo autonomo? Beh, questi sistemi IA sono programmati per puntare il bersaglio quando riconoscono nel target l’intenzione di perpetrare un attacco offensivo.
Ma tutto questo ha un po’ un sapore da film di fantascienza e non sembra reale… Eppure lo è. La possibilità è talmente reale da portare il deputato Stefano Giuseppe Quintarelli, del Gruppo Civici e Innovatori, a sottoporre alla Camera la Mozione 1/01620 in cui viene richiesto al Governo di promuovere, a livello europeo, una moratoria internazionale sullo sviluppo di questo tipo d’armi e d’adottare, a livello nazionale, un divieto sulla creazione e commercializzazione di sistemi AWS. Guardando il video dimostrativo creato dall’organizzazione Ban Lethal Autonomous Weapons (supportata da diversi operatori internazionali come Human Rights Watch), e mostrato parzialmente in un articolo di The Guardian lo scorso novembre, si viene subito persuasi dalla necessità di discutere a livello governativo di questo argomento.
Potete vedere un drone, grande quanto il palmo di una mano e riempito di 3 grammi d’esplosivo concentrato, volare verso un bersaglio e scoppiare in faccia a un manichino, target designato della dimostrazione. Il risultato, visibilissimo dal pubblico, è un buco delle dimensioni di una moneta e con una profondità tale da scavare il cervello di un essere umano.
La pericolosità del sistema è immensa, dare ad un’intelligenza artificiale la facoltà d’uccidere un essere umano. No, non deve succedere. Non stiamo parlando di bandire l’utilizzo bellico di sistemi armati automatizzati, soprattutto se a fini difensivi, dal momento che ce ne sono già di diversi tipi in uso. Ciò che qui è al centro della discussione riguarda la comprensione da parte dell’IA dell’intenzione offensiva del target. Se già gli esseri umani non sono in grado di distinguere fra un uomo disarmato ed un potenziale nemico (e da qui tutti i “danni collaterali” che ne sono derivati…) come potrebbe farlo l’IA? Non possiamo pretendere l’infallibilità da un sistema creato da esseri fallibili, né possiamo dare la libertà alle macchine di porre fine ad una vita umana.
Siamo davanti ad un sovvertimento delle Leggi di Asimov della Robotica (primum non nocere, la massima più importante…), secondo cui le macchine non dovrebbero danneggiare l’uomo ma obbedire ai suoi ordini. Con il sistema summenzionato, la responsabilità umana ne esce pressoché azzerata (o comunque notevolmente ridotta), mentre i potenziali abusi potrebbero solamente crescere in percentuale.