Il riconoscimento facciale non funziona e la polizia britannica deve smettere di utilizzare questa tecnologia. E' la richiesta arrivata a Scotland Yard dopo la pubblicazione di una ricerca dell’Università dell’Essex secondo cui il riconoscimento facciale è efficace solo in un quinto dei casi.
Ai ricercatori era stato dato accesso a sei sistemi in prova alla Polizia Metropolitana di Soho, Romford e del centro commerciale Westfield a Stratford, a est di Londra. Secondo quanto riscontrato, il sistema “sbaglierebbe regolarmente l’identificazione di persone che vengono poi fermate per errore”, scrive il Guardian.
Gli studiosi hanno anche sollevato il problema di possibili abusi da parte delle autorità, che avrebbero utilizzato i sistemi di riconoscimento facciale nel tentativo di identificare degli individui contro i quali non era stato emesso un mandato di cattura. Secondo la ricerca, questo utilizzo sarebbe difficilmente giustificabile dal punto di vista dei diritti umani, della protezione della privacy e della libertà di espressione e il diritto di protestare.
Come funzionano i sistemi di riconoscimento facciale
Basate su complessi algoritmi e enormi archivi fotografici, le tecnologie per l’identificazione di un volto funzionano comparando un’immagine con quelle contenute in un database. Generalmente, sono divise in due categorie: quella dei sistemi utilizzati per l’identificazione di un sospetto, il cui riconoscimento avviene tramite un lavoro manuale da parte della scientifica, e quelle “real time”. Questi ultimi sono sistemi in grado di identificare un volto in diretta, prendendo le immagini direttamente dai sistemi di videosorveglianza controllati dalle autorità e associando un nome alle persone che passano davanti a una telecamera, in tempo reale. È questo il tipo di sistemi contestati dai ricercatori britannici, che li ritengono estremamente poco efficaci e spesso soggetti a errori.
Leggi anche: Non serve che il riconoscimento facciale funzioni perché funzioni davvero
Il deputato David Davis, ex ministro ombra dell’Interno, si è schierato a favore dello studio realizzato da Peter Fussey e Daragh Murray, professori del Centro per i diritti umani dell'Università dell'Essex. Le loro conclusioni, spiega Davis, dimostrano che la tecnologia “potrebbe portare a errori giudiziari e arresti illegali”, ponendo “enormi problemi per la democrazia”.
“Ora tutti gli esperimenti di questo tipo dovrebbero essere sospesi fino a quando non avremo un'adeguata possibilità di discuterne per stabilire leggi e regolamenti - ha detto Davis al Guardian - Ricordate che cosa sono questi diritti: libertà di associazione e libertà di protesta; diritti che abbiamo protetto per secoli e che non dovrebbero essere violati senza una buona ragione”.
Dall’altra, Scotland Yard difende le potenzialità del riconoscimento facciale, che sarebbe sia legale sia efficace nell'identificazione dei sospetti. Le autorità contestano infatti il rapporto realizzato dall’Università dell’Essex, definendolo “estremamente deludente e con un tono negativo e sbilanciato”.
L’esperimento
La tecnologia utilizzata dalla Metropolitan Police inglese si basa su tecnologie sviluppate dalla società giapponese Nec. Gli stessi impianti sono quelli utilizzati nei casinò per individuare clienti abituali e potenziali disturbatori.
Gli accademici hanno potuto analizzare sei installazioni, tra il giugno del 2018 e il febbraio dell’anno successivo. Il sistema, della categoria “real time”, impiega telecamere fisse per identificare i passanti, incrociandone il volto con quello di una lista di persone sottoposte ad attenzionamento da parte delle autorità.
Secondo quanto rivelato dalla ricerca, spiega il Guardian, la polizia sarebbe troppo incline a fermare i sospetti prima ancora di eseguire dei controlli più approfonditi sui risultati del software. Su 42 persone identificate durante l’esperimento, 22 sono state fermate, ma di queste solo otto erano ricercate. Inoltre, alcune di queste erano ricercate per crimini “non abbastanza gravi da essere affrontati con il riconoscimento facciale”, scrive il Guardian.
Il problema degli errori commessi dai sistemi di riconoscimento facciale è ampiamente documentato e rivela prima di tutto il rischio che deriva dall’utilizzo di archivi di fotografie che non rappresentano equamente tutte le caratteristiche degli esseri umani. Nel loro studio, i ricercatori dell'Essex citano una ricerca statunitense del 2018 sul software di riconoscimento facciale fornito da IBM, Microsoft e Face+++ - società con sede in Cina -, nel quale si evidenzia che tali software hanno maggiori probabilità di identificare erroneamente le donne dalla pelle scura.
Lo stesso pregiudizio era stato evidenziato da uno studio pubblicato da un gruppo di ricercatori del Georgia Institute of Technology, che hanno verificato la capacità degli algoritmi che governano le automobili a guida autonoma di rilevare un pedone in base al colore della pelle. Secondo i test condotti dagli studiosi, il rilevamento dei pedoni dalla pelle scura è stato meno accurato del 5 per cento rispetto a quello dei pedoni con pelle chiara, a causa di un pregiudizio nei casi studiati dall’intelligenza artificiale.