AGI - La Commissione europea vieta il riconoscimento facciale nei luogo accessibili al pubblico, salvo casi eccezionali. "L'uso dell'identificazione biometrica remota in tempo reale in spazi accessibili al pubblico ai fini di attività di contrasto comporta rischi particolari per i diritti fondamentali, in particolare per la dignità umana, il rispetto della vita privata e familiare, la protezione dei dati personali e la non discriminazione.
In linea di principio è pertanto vietata, con poche eccezioni rigorosamente definite, limitate e regolamentate, tra cui: l'uso ai fini di attività di contrasto per la ricerca mirata di potenziali vittime specifiche di reato, compresi minori scomparsi, la risposta a una minaccia imminente di attacco terroristico o l'individuazione e l'identificazione degli autori di reati gravi", afferma la Commissione nel nuovo regolamento per l'uso del riconoscimento facciale.
"Tutti i sistemi di riconoscimento delle emozioni e di categorizzazione biometrica saranno sempre soggetti a specifici requisiti di trasparenza. Saranno anch'essi considerati applicazioni ad alto rischio se rientrano nei casi d'uso che li identificano come tali, ad esempio nei settori dell'occupazione, dell'istruzione, delle attività di contrasto, della migrazione e del controllo delle frontiere", si legge ancora.
La proposta di regolamento sull'uso dell'Intelligenza artificiale
Tutti i sistemi di identificazione biometrica sono considerati ad alto rischio e dunque, pur non venendo vietati, saranno soggetti a una serie di requisiti a tutela della privacy, secondo quanto prevede il pacchetto di regole proposte dalla Commissione europea per introdurre un quadro giuridico che metta ordine nel mondo dell’AI (Artificial intelligence). Nel documento, l’esecutivo Ue classifica le nuove tecnologie per livelli di rischio: inaccettabile, alto, limitato, minimo.
“I sistemi di AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone saranno vietati”, è la decisione di Bruxelles. Tra questi rientrano le macchine “che manipolano il comportamento umano per eludere il libero arbitrio degli utenti”, come i giochi per minori che utilizzano l'assistenza vocale e capaci di incoraggiare comportamenti pericolosi, ma anche i programmi che assegnano un punteggio sociale ai cittadini in funzione dei loro comportamenti.
L’utilizzo dei sistemi di identificazione biometrica, se verrà approvata questa proposta, sarà comunque soggetto all’autorizzazione giudiziaria o di altro organo indipendente e limitato ad opportuni limiti di tempo, portata geografica e banche dati.
Tra gli altri sistemi ritenuti ad alto rischio, e per questo soggetti a requisiti e controlli periodici, ci sono le tecnologie usate nel settore dei trasporti “che potrebbero mettere a rischio la vita e la salute dei cittadini”, meccanismi di assistenza nella formazione scolastica o professionale “che possono determinare l'accesso all'istruzione e al percorso professionale”, ma anche programmi di gestione dei lavoratori e accesso al lavoro (ad esempio i software di smistamento dei Cv dei candidati a un posto di lavoro).
La Commissione ritiene tecnologia a rischio limitato tutti i sistemi soggetti a soli obblighi di trasparenza. Si tratta, ad esempio, dei sistemi di intelligenza artificiale come i chatbot, per i quali gli utenti devono essere consapevoli che stanno interagendo con una macchina anziché con un umano.
Videogiochi abilitati per l’intelligenza artificiale e filtri antispam rientrano invece sotto la categoria del rischio minimo, sui quali la Commissione ha scelto di non intervenire con nuove regole poiché “questi sistemi di AI rappresentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini”.
In termini di governance, la Commissione propone che le autorità nazionali competenti per la vigilanza del mercato sovrintendano alle nuove norme e che, al contempo, venga predisposta la creazione di un comitato europeo per l'intelligenza artificiale che faciliterà l'attuazione dei nuovi standard normativi.