ALLERTA PERICOLI INFORMATICI

La mascherina ha cambiato i destini del riconoscimento facciale

La mascherina ha cambiato i destini del riconoscimento facciale
Scritto da gestore

Uno studio preliminare dellโ€™ente governativo statunitense Nist ha preso in considerazione volti di soggetti coperti da mascherine, confrontandoli con gli stessi non coperti: il tasso di errore nellโ€™abbinamento puรฒ arrivare fino al 50%. Lโ€™emergenza sanitaria scatenata dalย coronavirusย ha anticipato gran parte delle novitร  in merito allaย tecnologia di riconoscimento faccialeย e allโ€™utilizzo dei dati biometrici dei nostri volti. In molti paesi del mondo i governi hanno obbligato i cittadini a indossare mascherine per contenere il contagio dal virus, diminuendo la capacitร  dei sistemi di riconoscimento facciale di identificare un soggetto. Per questo motivo, nel marzo di questโ€™anno lโ€™azienda cinese Hanwang Technology Ltd ha sviluppato la prima tecnologia di riconoscimento faccialeย capace di individuare lโ€™identitร  di una persona anche se coperta da una mascherinaย chirurgica. Sulla stessa scia anche le europee Herta e Dermalog.

Come emerge dalย primo di una serie di studi preliminariย pubblicato dalย National Institute of Standard and Technologyย (Nist) alla fine di luglio, perรฒ, gli algoritmi non sono ancora al passo con i tempi. Nello studio si รจ voluto dimostrare come gli algoritmiย pre-pandemici, ovvero creati per abbinare due fotografie di un soggetto a volto scoperto, abbiano non pochi problemi nellโ€™identificare soggetti che invece hanno naso e bocca coperti da una mascherina. Secondo lโ€™autrice del report Mei Ngan, informatica e creatrice del programmaย Morph Nist Face Recognition Vendor Test, lโ€™errore nel processo di abbinamento di due foto โ€“ che solitamente si assesta sullo 0,3% degli algoritmi molto performanti โ€“ รจ delย 5%, fino a raggiungere ilย 20%ย o ilย 50%ย negli algoritmi meno accurati.

Intermezzo promozionale ... continua la lettura dopo il box:

I dataset utilizzati nellโ€™esperimento, realizzato in collaborazione con il Dhs Science and Technology Directorate, lโ€™Ufficio per la gestione dellโ€™identitร  biometrica (Obim) e la Polizia di frontiera statunitense (Cbp), contengono 6,2 milioni di immagini e coinvolgono 1 milione di persone tra residenti negli Stati Uniti senza cittadinanza o permesso di lavoro permanente e immigrati in arrivo al confine. Il primo dataset รจ stato utilizzato come gruppo di controllo, mentre alle fotografie del secondo sono state applicate digitalmente delle mascherine per coprirne il volto. La tipologia di riconoscimento facciale testata dal Nist รจ conosciuta comeย one-to-oneย ed รจ utilizzata nelle procedure di identificazione o controllo in luoghi di transito come gli aeroporti o i confini nazionali.

I falsi negativi sono maggiori dei falsi positivi, anche con mascherine differenti
Il team di ricerca ha creato e apposto digitalmente alle fotografie in possesso del Nist nove varianti di mascherine diverse nella forma, nel colore e nella copertura del naso. I risultati ottenuti mostrano lโ€™incapacitร  degli algoritmi attuali โ€“ che solitamente agiscono proprio misurando caratteristiche del volto come la dimensione e le distanze fra bocca, naso e occhi โ€“ di identificare con successo i soggetti.

Di norma le foto scattate al confine durante le attivitร  di polizia sono autenticate con un errore dello 0.3%; con i volti quasi completamente coperti, anche algoritmi molto accurati tra gli 89 testati nello studio risultano raggiungere un tasso di errore del 5%. Anche quelli considerati molto competitivi nellโ€™identificazione di volti coperti (tasso di errore dellโ€™1%) non riconoscono tra il 20 e il 50% delle immagini che gli vengono sottoposte. Gli errori nel riconoscimento facciale possono assumere la forma di unย falso negativo, situazione nella quale lโ€™algoritmo non riesce ad abbinare due foto della stessa persona, o di un falso positivo, in cui viene erroneamente indicata una corrispondenza tra foto di due persone diverse.

Mascherine applicate digitalmente nellโ€™esperimento del NIST. Foto: B. Hayes/NIST
Nellโ€™esperimento, mentre i falsi negativi sono aumentati, iย falsi positivi sono rimasti stabiliย o sono leggermente diminuiti. Come sostenuto dallโ€™autrice della ricerca, i falsi negativi non possono essere superati nemmeno facendo un secondo tentativo di identificazione, e questo perchรฉ gli algoritmi pre-pandemici non sono stati creati per lavorare su soggetti con il viso occluso dalle mascherine.

Oltre alla quantitร  di viso coperto, nello studio รจ stato indagato lโ€™effetto sugli algoritmi della forma e del colore delle mascherine. Una mascherina arrotondata rende piรน difficile il compito dellโ€™algoritmo, che dimezza le sue potenzialitร  di identificazione quando si tratta di mascherine rettangolari che coprono non solo il naso e la bocca ma anche buona parte delle guance. Nello studio il Nist ha applicato digitalmente mascherine di colore nero e azzurro, le piรน utilizzate, scoprendo che la maggior parte degli 89 algoritmi testati ha unย tasso di errore maggiore quando si tratta diย mascherine nere. Un risultato che il team di ricerca descrive come poco indicativo, poichรฉ non รจ stato possibile testare buona parte delle tipologie diย textureย di mascherine presenti in commercio.

Risultati, quelli del Nist, che non fanno ben sperare le agenzie federali americane.ย Come riportato daย The Interceptย utilizzando documenti provenienti dallโ€™archivioย BlueLeaks, le mascherine obbligatorie per il controllo del contagio da coronavirus stanno mettendo a dura prova le tecnologie di riconoscimento facciale ormai largamente implementate dalla polizia statunitense e contrastate dalle associazioni per i diritti civili. Opinioni contrarie allโ€™utilizzo dei dati biometrici da parte delle forze dellโ€™ordine arrivano anche dal Congresso: a giugno, un gruppo di senatori ha presentato il progetto di legge Stop Biometric Surveillance by Law Enforcement Act, proponendo il divieto di utilizzare il riconoscimento facciale su qualsiasi immagine acquisita tramite le videocamere indossate dagli agenti.

Lโ€™impatto sulla privacy e la visione dellโ€™Unione europea
Il dibattito sul tema del riconoscimento facciale in Usa รจ molto serrato e giร  si discute di possibili regolamentazioni. Proteste e campagne di sensibilizzazione sullโ€™invasivitร  e la vulnerabilitร  di questa tecnologia sono state portate avanti allโ€™inizio di questโ€™anno nei campus universitari daย Fight For the Future,ย organizzazione statunitense a tutela dei diritti civili, cosรฌ come da Electronic Frontier Foundation (Eff). Sempre piรน numerose sono infatti le cittร  che stanno vietando i sistemi di riconoscimento facciale nei luoghi pubblici, seguendo lโ€™esempio di San Francisco, Oakland, Berkeley e Cambridge. Il 4 agosto i senatori americani Jeff Merkley e Bernie Senders hanno proposto ilย National Biometric Information Privacy Act (Bipa), un progetto di legge che garantisce ai cittadini statunitensi la possibilitร  diย fare causa alle aziende che non richiedono ilย consenso scrittoย alla raccolta e al trattamento dei loro dati biometrici.

In Europa la situazione รจ differente: mentre esistono associazioni che si occupano del tema e spingono per un divieto totale della sorveglianza biometrica come European Digital Rights, dal punto di vista istituzionale sembra esserci una sorta di immobilismo. Il Parlamento europeo ha finoraย avanzato solo unaย moratoria, che consiste nella sospensione dello sviluppo di tecnologie automatiche che permettono il riconoscimento di un individuo non solo dalla sua faccia, ma anche dalla voce o dal Dna. Una tutela piรน bassa di quella che potrebbe avere un cittadino statunitense con il Bipa ma soprattutto una scelta controversa, dato che uno studio pubblicato alla fine di giugno fa emergere come ben lโ€™80%ย dei 35mila cittadini europei intervistati dalla European Union Agency for Fundamental Rights ha dichiarato di essereย contrario a fornire il proprio volto alle autoritร .

Fonte : https://www.wired.it/attualita/tech/2020/08/24/riconoscimento-facciale-mascherina-covid/