All’inizio dell’anno Time ha pubblicato la lista di quelli che potrebbero essere i dieci rischi più imminenti nel 2018. Dopo l’espansione commerciale della Cina e la grande quantità di scenari nei quali possono verificarsi incidenti diplomatici, al terzo posto della sua classifica, il settimanale americano mette in guardia dai rischi derivanti da quella che viene definita la Guerra Fredda della tecnologia.
“Il più acceso scontro mondiale per l’affermazione del potere economico è centrato sullo sviluppo di nuove tecnologie dell’informazione”, si legge. L’espansione della Cina ha infatti portato Pechino non solo ad affermarsi come principale potenza commerciale al mondo, ma anche come leader negli investimenti in nuove tecnologie quali apparati di controllo automatizzato e intelligenze artificiali. La perdita da parte degli Stati Uniti del monopolio sulla ricerca in ambito tecnologico - sempre più intrinsecamente legato a quello bellico - probabilmente imporrà al resto del mondo di decidere quali standard saranno necessari e quali debbano essere le regole nell’impiego di tali tecnologie nei più disparati campi. A partire da quelli di battaglia.
La ricerca tecnologica nelle principali economie del mondo è particolarmente sensibile allo sviluppo di sistemi d’arma autonomi e capaci di condurre guerre da remoto. Nella sua richiesta di finanziamenti al governo per l’anno 2018, il Pentagono ha stimato un investimento di 13 miliardi di dollari per le ricerche scientifiche e tecnologiche, più altri dieci miliardi per sistemi spaziali. Le guerre future si combatteranno con nuovi e potenti strumenti in grado di condurre attacchi a distanza, di sabotare le comunicazioni nello spazio e di prendere decisioni autonome senza coinvolgere un operatore in carne e ossa. Robert Latiff, andato in pensione dall’aeronautica statunitense nel 2006 con il grado di generale, e autore di “Guerre future: prepararsi per il nuovo campo di battaglia globale”, è stato tra i più autorevoli personaggi provenienti dall’ambito militare a sollevare il problema del rapporto tra l’etica e le nuove tecnologie.
In un’intervista ha spiegato: “Dall’esercito sono poi passato a lavorare come libero professionista nel settore della difesa. Non era un brutto lavoro, ma ne lì e né come militare ho mai sentito nessuno chiedersi se fosse il caso di svolgere quelle ricerche. Non so se fossero illegittime, ma semplicemente nessuno si è posto il problema”. Le ricerche a cui si riferisce Latiff riguardano sperimentazioni nel campo della biologia sintetica e dell’elettromagnetismo: “Alcune erano un po’ spaventose”.
RT arduino "RT cristynhoward: I made a killer robot. pic.twitter.com/E38nHRBiCg"— HackerSpace Tech (@HackerSpaceTech) December 19, 2017
A spaventare Latiff, come spiega lui stesso nei corsi che tiene nelle Università di Notre Dame (Indiana) e George Mason (Virginia), sono le conseguenze dell’impiego dell’intelligenza artificiale per creare armamenti autonomi. “Tommaso d’Aquino e Sant’Agostino parlavano di ‘buone intenzioni’. Ma chi compie un omicidio ha effettivamente giuste intenzioni?”, spiega. “E se parliamo di intelligenza artificiale, credo che nessuno possa effettivamente dimostrare che possiamo riporre fiducia nella loro capacità di fare ciò che è giusto”.
A questo proposito, nell’estate del 2017, un gruppo di imprenditori del settore tecnologico, tra cui il fondatore di Tesla e Space X Elon Musk e il fondatore della società di Google che ricerca nel campo delle intelligenze artificiali, DeepMind, avevano inviato una lettera alle Nazioni Unite per chiedere che venissero messi al bando i “killer robot”, che “una volta sviluppati permetteranno di combattere su una scala mai vista prima e con tempistiche talmente veloci da non poter essere comprese dagli umani”. Anche se può suonare fantascientifico, queste preoccupazioni sono reali per gli addetti ai lavori come Latiff, per il quale l’unica speranza può arrivare da accordi di non proliferazione simili a quelli stipulati per il nucleare negli anni ‘60. E che tutt’ora sembrano l’unica via per tenere sotto controllo questa nuova tecnologica Guerra Fredda.
Leggi anche: “Perché è importante discutere anche in Italia delle armi pilotate da intelligenza artificiale”
Anche in Italia si è parlato del tema degli armamenti con autonomia decisionale. All’inizio di dicembre del 2017 alla Camera si è discussa la mozione presentata a maggio dal deputato Stefano Quintarelli del gruppo Civici e Innovatori per chiedere una moratoria sull’impiego di tali tecnologie, e l’avvio di un tavolo di confronto con i principali partner del Paese a livello internazionale. La discussione, che ha raccolto un vago interesse da parte della politica italiana, si è conclusa con un nulla di fatto e con la decisione di rimandare il problema per non intralciare la ricerca e lo sviluppo bellico del Paese.