Sono gli stessi che negli ultimi mesi hanno mobilitato con successo le loro comunità per bloccare l’uso della tecnologia di riconoscimento facciale nelle scuole francesi, impedire la sorveglianza biometrica nella città di Como e attivare il Garante privacy contro l’uso che ne fa la polizia ellenica.
Gli stessi che – come già facevano i Surveillance Camera Players a New York negli anni ’90 – hanno mappato le telecamere di riconoscimento facciale della città di Belgrado.
Adesso queste associazioni, tra cui l’italiana Hermes Center, Access Now e European Digital Rights, chiedono a tutte le autorità locali e nazionali europee di rivelare i rischi insiti in queste tecnologie e di rifiutare l’uso della sorveglianza biometrica negli spazi pubblici che le comunità abitano. In poco tempo si sono aggiunte all’elenco Privacy International, ARTICLE 19, Chaos Computer Club (Germania), Panoptykon Foundation (Polonia) e la francese Quadrature du Net.
Il punto da cui partono è semplice: “Non accetteremmo mai che una persona ci seguisse costantemente monitorando e valutando chi siamo, cosa facciamo, quando e dove ci muoviamo. Il riconoscimento facciale, insieme ad altre tecnologie biometriche utilizzate negli spazi pubblici, agisce proprio in questo modo, trasformando ognuno di noi in un potenziale sospetto”.
Il tema è caldo. Le telecamere e dispositivi biometrici dovrebbero servire come deterrente per i criminali e facilitare il lavoro della polizia. In realtà numerosi studi dimostrano che la maggior parte dei delitti sono commessi da persone travisate o da delinquenti capaci di far perdere le proprie tracce. Inoltre non ci sono abbastanza ricerche indipendenti a provare che i crimini nelle zone sorvegliate dagli smart objects diminuiscano, al contrario si moltiplicano notizie di abusi delle telecamere usate per spiare le donne al bagno come è successo in Corea.
Altri studi dimostrano invece come queste tecnologie amplifichino la discriminazione e siano utilizzate per perseguire persone colpevoli di esercitare i propri diritti. È innanzitutto un problema tecnologico. Alla base delle nuove tecnologie di riconoscimento facciale c’è la machine perception, il settore dell’Intelligenza Artificiale (IA) su cui l’avvento del deep learning ha più inciso. Il basso costo dell’informatica computazionale, la disponibilità di grandi quantità di dati e l’affinamento di reti di algoritmi neurali ha permesso all’IA di eseguire compiti di classificazione visiva anche meglio degli esseri umani. Ma spesso si sbagliano.
Una ricercatrice del MIT, Joy Buolamwini, ha dimostrato come le foto di donne di colore quando vengono scansionate dalla tecnologia di riconoscimento facciale vengono scambiate per degli uomini
L’Associazione americana per le libertà civili ha scoperto che il software Rekognition di Amazon identificava i parlamentari del Congresso Usa come pregiudicati e Arvind Krishna di IBM ha fatto sapere al Congresso Usa che la sua azienda “Non fornirà più tecnologie di riconoscimento facciale ai dipartimenti di polizia per la sorveglianza di massa e la profilazione razziale” proprio per il timore che possa “essere utilizzata dalla polizia per violare i diritti umani e le libertà fondamentali” auspicando un vasto dibattito pubblico sul tema. Invito raccolto dai Democratici americani che hanno presentato leggi ad hoc per impedirlo. Una levata di scudi che è all’origine della decisione di cinque grandi città USA di vietare l’uso del riconoscimento facciale.
In Europa invece, la Commissione è ancora incerta sull’applicazione del divieto sul riconoscimento facciale e continua a finanziare progetti di sorveglianza biometrica per porti e aereoporti. E tutto questo senza considerare i rischi legati “a grandi banche dati centralizzate, tecnicamente difficili da gestire, vulnerabili agli attacchi, accompagnate da outsourcing poco affidabili, tali da distogliere l’attenzione dalla necessità di raccolte e di indagini mirate.” come diceva nella sua relazione del 2004 il Garante della privacy Stefano Rodotà. Problema attualissimo.
Per questo le associazioni chiedono maggiore trasparenza sul loro utilizzo e invitano la società civile a rivelare e rifiutare l’uso della sorveglianza biometrica “che potrebbe avere un impatto sui nostri diritti e sulle nostre libertà nei nostri spazi pubblici”. Rivolgendosi all’Autorità Garante per la privacy gli attivisti italiani chiedono di monitorare l’uso di sistemi di riconoscimento biometrico da parte dei comuni italiani e di valutare l’impatto dei sistemi che le città di Torino e di Udine hanno intenzione di installare, e a tutte le città metropolitane di sospendere ogni progetto di riconoscimento facciale/biometrico avviato e vietare l’introduzione di tali tecnologie nel contesto pubblico cittadino.
Con maggiore determinazione chiedono al Ministero dell’Interno di pubblicare tutte la valutazioni degli algoritmi utilizzati, dei numeri sull’utilizzo del sistema, e di tutti i dati relativi alla tipologia di volti presenti nel database usato da SARI e di sospendere il sistema SARI Real-Time per il riconoscimento automatico dei volti che usa i dati dalle milioni di videocamere distribuite nelle città. E aggiungono: “Da due anni rimane ancora aperta l’istruttoria del Garante privacy per valutare l’impiego del sistema SARI nella sua versione Real-Time da utilizzare durante manifestazioni di piazza e negli spazi pubblici.”
Se non si interviene ora, il prossimo passo è quello temuto da due ricercatori Daniel Leufer e Fieke Jansen che hanno denunciato l’esistenza di iBorderCtrl, un progetto finanziato da Horizon 2020, che si basa sulla misurazione delle micro-espressioni facciali per rilevare falsi, bugie e incertezze di ogni individuo che voglia entrare in Europa.