La sicurezza degli aeroporti europei si doterà presto ai check-in di una vera e propria "macchina della verità". Un'intelligenza artificiale interrogherà i viaggiatori, chiedendo loro di confermare nome, età e data di nascita e ponendo domande sulla ragione del viaggio e sulla provenienza dei fondi per effettuarlo. Un monitor scansionerà il loro volto per stabilire se stanno dicendo bugie o meno e, se riterrà di trovarsi di fronte a un mentitore, lo incalzerà assumendo un tono della voce "più scettico", ha spiegato alla Cnn Keeley Crockett della Machester Metropolitan University, ateneo inglese coinvolto nel progetto. Dopodiché il software segnalerà il sospetto al personale umano. Come prevedibile, le associazioni per la tutela della privacy non stanno facendo esattamente i salti di gioia.
Il progetto da 4,5 milioni di euro, denominato iBorderCtrl, ha lo scopo di velocizzare i controlli ai check-in e verrà testato questo mese in Ungheria, Lettonia e Grecia sui passeggeri in arrivo da nazioni extraeuropee. iBorderCtrl è ritenuto più avanzato rispetto a precedenti sistemi di riconoscimento facciale che avevano dimostrato di avere un tasso di errore molto elevato sulle donne e sulle persone di colore. Testato finora su 32 persone, il sistema ha totalizzato un 85% di risultati positivi. I dati raccolti "andranno oltre i parametri biometrici e toccheranno i biomarcatori dell'inganno", ha promesso il coordinatore del progetto, George Boultadakis della società lussemburghese European Dynamics.
Per Privacy International è "un'idea terribile"
"È parte di una più vasta tendenza verso l'utilizzo di sistemi automatici opachi, e spesso inefficienti, per giudicare, valutare e classificare le persone", ha dichiarato alla Cnn Frederike Kaltheuner di Privacy International, che ha definito il test "un'idea terribile". "Le macchine della verità tradizionali hanno una storia problematica di incriminazioni di innocenti e non c'è alcuna prova che l'intelligenza artificiale risolverà il problema, soprattutto uno strumento che è stato utilizzato su appena 32 persone", ha proseguito, "anche tassi di errore apparentemente piccoli porteranno migliaiai di persone a dover provare di essere innocenti solo perché un qualche software li ha ritenuti bugiardi".
"Non credo si possa avere un sistema accurato al 100%", ha ammesso Crockett, aggiungendo che maggiore sarà il numero di persone sottoposte al software, maggiore sarà l'accuratezza. Nella fase di test, il software verrà sperimentato solo su passeggeri che lo accetteranno e firmeranno una liberatoria.