Google va avanti con la sperimentazione di Duplex, anche se metterà dei paletti fermi per evitare un uso ingannevole della sua tecnologia. Stiamo parlando di una nuova funzione di Google Assistant, l’assistente vocale del colosso tech, che è in grado di interagire con gli esseri umani al telefono per compiere in autonomia alcune azioni di base, come prenotare un tavolo al ristorante. Duplex era stato mostrato con orgoglio alcune settimane fa nel corso di Google I/O, la conferenza della multinazionale dedicata agli sviluppatori, in cui il Ceo Sundar Pichai aveva fatto ascoltare le registrazioni di due telefonate, la prima per prenotare un tavolo a un ristorante, la seconda per prendere appuntamento dal parrucchiere. La voce, l’interazione, la fluidità, le risposte, perfino le interiezioni emesse dal software apparivano estremamente umane. Forse troppo. Infatti subito dopo si era scatenato un dibattito pubblico sull’opportunità di usare tecnologie di questo tipo, in grado di trarre in inganno gli interlocutori.
I primi test pubblici
Bene, ora Google ha annunciato che nelle prossime settimane inizierà una sperimentazione pubblica del software con un piccolo gruppo di persone che faranno da “tester”, collaudatori. In questa fase il programma verrà usato solo per fare delle chiamate ad aziende per confermare gli orari di attività e quelli di chiusura. Successivamente si faranno prove anche per prenotare posti in ristoranti e saloni di bellezza.
Il dibattito sull’etica
Il fatto che Duplex introduca da subito alcuni elementi di trasparenza e attenzione ai risvolti etici è importante perché con questo tipo di sperimentazioni ci stiamo addentrando in un territorio nuovo. E, come notano vari osservatori, è necessario fissare da subito degli standard etici, e non pensare a questi solo dopo che la tecnologia si sia evoluta e diffusa. Tutto ciò si lega alla discussione in corso sui progressi dell’intelligenza artificiale e le sue implicazioni. Poche settimane fa lo stesso Pichai ha pubblicato una sorta di manifesto sull’etica nell’AI (Artificial Intelligence) in cui l’azienda prova a delineare alcuni principi.
Tra questi, il fatto che tali tecnologie non debbano rinforzare precedenti pregiudizi. Che debbano essere progettate fin dall’inizio pensando alla sicurezza e alla privacy. Che debbanno dare feedack, spiegazioni e indicazioni sul loro operato. Che non siano abusate o usate in applicazioni malevole. Google negli scorsi mesi è stata scossa anche internamente da simili discussioni. Tanto che le proteste dei suoi stessi dipendenti hanno portato alla cancellazione di più di un progetto controverso di intelligenza artificiale.