Un impegno a non partecipare allo sviluppo di sistemi militari basati sull'intelligenza artificiale è stato formalmente preso dai giganti del settore tecnologico, tra cui Elon Musk, CEO di Tesla e SpaceX, dirigenti di Google DeepMind, migliaia di ricercatori ed esperti in intelligenza artificiale. L'impegno è contenuto in una lettera aperta pubblicata sul sito di Future of Life Institute, organizzazione statunitense non a scopo di lucro, mentre a Stoccolma è in corso un suo evento - l'International Joint Conference on Artificial Intelligence (IJCAI), al quale partecipano i big dell'intelligenza artificiale e dell'innovazione tecnologica mondiale.
"La decisione di togliere una vita umana non dovrebbe mai essere presa da una macchina" si legge nella lettera pubblicata oggi, a firma di 2400 ingegneri, ricercatori e imprenditori nel settore dell'intelligenza artificiale. Sul piano operativo, i firmatari si impegnano a "non partecipare nè sostenere lo sviluppo, la produzione, il commercio o l'utilizzo di armi letali autonome", la cui cui diffusione sarebbe "disgustosa e pericolosamente destabilizzante per ogni paese ed individuo".
Appello all'Onu
La lettera è presentata da analisti e media come un impegno concreto decisivo da parte di soggetti coinvolti direttamente nel settore. In merito Future of Life Institute ha già chiesto un intervento specifico delle Nazioni Unite sul tema delle cosiddette armi letali autonome.
"Invitiamo i governi a costruire un futuro disciplinato da norme, regole e leggi internazionali solidi contro le armi letali autonome. Visto che ciò non esiste ancora, abbiamo deciso di attenerci a questo principio" proseguono i firmatari della lettera, tra cui Shane Legg, Mustafa Suleyman e Demis Hassabis - i tre cofondatori di DeepMind - il fondatore di Skype Jaan Tallinn, Stuart Russell, Yoshua Bengio e Jurgen Schmidhuber, alcuni dei ricercatori più importanti al mondo. Insieme avvertono che queste armi da fuoco autonome dovrebbero essere soggette alle stesse restrizioni di quelli vigenti per le armi chimiche e mine antiuomo. "La tecnologia, tuttavia, è già ampiamente diffusa e bisogna tracciare dei confini per stabilire cosa vietare e cosa no" avvertono i firmatari, invitando le aziende del settore a sottoscrivere l'impegno preso a Stoccolma.
Nessuna adesione da Apple e Facebook
Il quotidiano francese 'Le Monde' fa notare che ad aver firmato la lettera aperta sono alcuni dipendenti di Google, Amazon e Microsoft ma nessuno da Apple e Facebook. La questione del coinvolgimento di ricercatori e aziende del settore dell'intelligenza artificiale allo sviluppo di questo tipo di armi è tornata ala ribalta lo scorso marzo, quando impiegati di Google hanno saputo che la loro compagnia stava collaborando col Pentagono su un progetto di analisi di immagine riprese da droni. Dietro pressioni interne ed esterne Google ha lasciato il progetto, prendendo una serie di impegni nel rispetto di principi etici.