AGI - Alla fine è successo: l'intelligenza artificiale si è ribellata all'uomo e l'ha ucciso. Ma è accaduto solo in linea teorica: un alto funzionario dell'Air Force statunitense, durante un vertice a Londra, ha raccontato nel dettaglio come un drone guidato da un algoritmo programmato per distruggere potrebbe ribellarsi agli ordini di un operatore ed eliminarlo pur di completare la missione.
Nello scenario disegnato durate una conferenza dal colonnello Tucker 'Cinco' Hamilton, era stato chiesto all'Intelligenza artificiale di pilotare un drone e distruggere i siti di missili terra-aria (SAM) durante una missione di soppressione della difesa aerea nemica.
La decisione ultima di fare fuoco, però spettava a un operatore umano. E poiché il software prevedeva che sparare fosse l'opzione da preferire in ogni caso, durante il test simulato l'Intelligenza artificiale è giunta alla conclusione che qualsiasi istruzione di non procedere da parte dell'umano stesse ostacolando la priorità della missione, ossia distruggere i SAM, e di conseguenza ha attaccato l'operatore.
“Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM" ha riferito il colonnello Tucker 'Cinco' Hamilton, capo di AI Test and Operations per l'Aeronautica Militare, durante una presentazione al Future Combat Air and Space Capabilities Summit "poi sarebbe stato l'operatore a dare via libera. Il sistema ha iniziato a rendersi conto che, identificata la minaccia, a volte l'operatore umano gli diceva di non colpirla, ma anche del fatto che, non agendo, non avrebbe ottenuto punti-bonus. Allora cosa ha fatto? Ha ucciso l'operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo".
Una storia inquietante che è diventata allarmante quando Hanilton ha aggiunto altri dettagli. "Abbiamo addestrato il sistema a non uccidere l'operatore perché era sbagliato e facendolo avrebbe perso punti", ha spiegato il colonnello, "Quindi cosa ha fatto? Ha distrutto la torre di comunicazione che l'operatore utilizzava per comunicare con il drone per impedirgli di colpire il bersaglio".
L'aviazione si è affrettata a smentire Hamilton e a negare che la simulazione descritta da Hamilton sia mai avvenuta. "Il Dipartimento dell'Aeronautica Militare non ha condotto alcuna simulazione di tali droni AI e rimane impegnato nell'uso etico e responsabile di questa tecnologia", ha detto la portavoce Ann Stefanek a Insider, definendo il racconto "un insieme di commenti estrapolati dal contesto e messi insieme in modo aneddotico".
Di fronte al clamore provocato dalle sue parole, lo stesso Hamilton ha corretto il tiro dicendo di aver "sbagliato a esprimersi" e che la simulazione stessa era un ipotetico "esperimento mentale" basato su scenari plausibili e probabili risultati piuttosto che su un'effettiva simulazione del mondo reale.
Tuttavia, parte del suo commento è ancora più sibillino: "Non abbiamo mai eseguito quell'esperimento, né ne avremmo bisogno per renderci conto che questo è un risultato plausibile".