Migliaia di dipendenti di Google sono in rivolta contro la decisione della casa madre, Alphabet, di mettere a disposizione del Pentagono la propria intelligenza artificiale a scopi militari.
A molti, riporta Bloomberg, non è piaciuto il forte sostegno dato da Eric Schmidt, ex amministratore delegato di Google e direttore di Alphabet, durante un'audizione al Comitato sulle Forze armate della Camera, alla proposta del Pentagono di un nuovo centro di intelligenza artificiale e alla collaborazione con aziende tecnologiche.
"La natura dell'intelligenza artificiale è quella di una tecnologia a lungo termine che sarà utile anche per scopi difensivi e forse offensivi", ha detto Schmidt, che presiede anche l'Innovation Board del Dipartimento della Difesa. Ogni sforzo per "rendere più facile" per il Pentagono lavorare con l'industria privata sarebbe il benvenuto, ha aggiunto.
Schimdt si è dimesso dal suo ruolo di presidente di Alphabet a dicembre, ma rimane nel consiglio di amministrazione dell'azienda. Le recenti trattative di Google con il governo per i servizi di cloud computing hanno suscitato un acceso dibattito all'interno dell'azienda.
Un programma del Pentagono, Project Maven, metterà a disposizione il software cloud AI di Google per analizzare i filmati dei droni. Google ha detto che il lavoro non è per scopi offensivi. Più di 3.000 dipendenti hanno scritto al CEO Sundar Pichai all'inizio del mese contestando il contratto. Sostenevano che Google "non dovrebbe essere nel business della guerra" e hanno chiesto che la società non metta nero su bilancio che non "costruirà mai la tecnologia bellica".
Durante l'audizione, Schmidt ha rifiutato di fare direttamente riferimento alle proteste di Google. "Approfittiamo della ricerca finanziata con fondi militari", ha detto sottolineando di parare a titolo personale e non dell'azienda. "Se si tratta di un programma militare, allora deve essere fatto sulla base di un rapporto costi-benefici".
Che cosa è il Progetto Maven
l Progetto Maven è stato avviato nell'aprile del 2017 con l'obiettivo di "accelerare l'integrazione di big data e machine learning nel dipartimento della Difesa", che lo scorso anno, secondo il Wall Street Journal, ha investito 7,4 miliardi di dollari nell'intelligenza artificiale. Il primo compito assegnato al progetto è stato aiutare il Pentagono a elaborare l'enorme quantità di riprese video che viene effettuata ogni giorno dai suoi droni, una mole di filmati tale da non poter essere analizzata da operatori umani. Da qui la necessità di ricorrere a sistemi di machine learning perché identifichino gli oggetti catturati dalle fotocamere aeree. Oltre a quelli di natura etica, però, esistono anche dubbi di natura tecnica.
"L'intelligenza artificiale è già utilizzata dalle forze dell'ordine e da applicazioni militari ma i ricercatori avvertono che questi sistemi possono essere notevolmente parziali in maniere che non sono facili da rilevare", sottolinea Gizmodo, "per esempio, ProPublica ha segnalato nel 2016 che un algoritmo utilizzato per prevedere le probabilità di recidiva tra i detenuti ha regolarmente mostrato pregiudizi razziali".
La posizione di Google
"Avere dipendenti attivamente impegnati nel lavoro che svolgiamo è una parte importante della nostra cultura. Sappiamo che ci sono molte domande aperte sull'uso delle nuove tecnologie, quindi queste conversazioni - tra dipendenti e con esperti esterni - sono estremamente importanti e utili" afferma Google in una nota, "Maven è un progetto molto conosciuto del Dipartimento della Difesa americano e Google sta lavorando su una sola parte di esso - specificamente limitata a fini non offensivi - con l'utilizzo del software open source di riconoscimento degli oggetti che è a disposizione di qualsiasi cliente di Google Cloud. I modelli sono basati solo su dati non classificati. La tecnologia viene utilizzata per contrassegnare le immagini per una revisione umana e ha lo scopo di salvare vite, oltre a risparmiare alle persone un lavoro estremamente ripetitivo.
"Qualsiasi uso militare del machine learning solleva ovviamente valide preoccupazioni" aggiunge la società, "Siamo impegnati in una discussione approfondita su questo importante argomento, internamente e insieme a esperti esterni, per continuare a sviluppare le nostre norme relative allo sviluppo e all'uso delle nostre tecnologie di machine learning."