Che succede quando la tecnologia è razzista?
Hacker’s Dictionary. Joy Buolamwini: “La tecnologia di riconoscimento facciale utilizzata dalla polizia è stata utilizzata per minare i diritti umani e per danneggiare specificamente i neri, così come gli indigeni e gli altri popoli di colore”
del 11 Giugno 2020
Un ricercatore del MIT, Joy Buolamwini, di recente ha scoperto che quando le foto di donne di colore come Oprah Winfrey e Michelle Obama vengono scansionate dalla tecnologia di riconoscimento facciale di Amazon, vengono scambiate per uomini.
Il dato emerge da uno studio del MIT Media Lab sugli errori di identificazione dei volti dalla pelle scura.
“La tecnologia di riconoscimento facciale, in particolare utilizzata dalla polizia, è stata usata per minare i diritti umani e per danneggiare specificamente i neri, così come gli indigeni e gli altri popoli di colore”, ha affermato Buolamwini, che è anche il fondatore della Algorithmic Justice League.
Ma la storia di questi errori è molto più lunga.
L’Associazione americana per le libertà civili ha scoperto che il software di Amazon, Rekognition, già nel 2018 aveva erroneamente identificato 28 parlamentari del Congresso Usa come pregiudicati.
È questo il motivo per cui IBM ha deciso di ritirare la sua tecnologia di riconoscimento facciale?
Qualche giorno fa in una lettera al Congresso, Arvind Krishna, il suo amministratore delegato ha scritto che IBM “Non fornirà più tecnologie di riconoscimento facciale ai dipartimenti di polizia per la sorveglianza di massa e la profilazione razziale” – perché, dice – “potrebbe essere utilizzata dalla polizia per violare i diritti umani e le libertà fondamentali”. E ha aggiunto: “Riteniamo che sia giunto il momento di avviare un dialogo nazionale sul se e come la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell’ordine.”
La notizia segue il vasto movimento di protesta seguito all’uccisione di George Floyd da parte della polizia che adesso viene sollecitata a ripensare non solo l’uso della forza, ma l’uso della tecnologia per applicarla.
Che le tecnologie digitali siano uno strumento di controllo sociale è convinto da sempre Hamid Khan, attivista impegnato contro la violenza poliziesca.
Fondatore del movimento Stop LAPD Spying Coalition, è noto per essersi battuto contro l’analisi predittiva dei comportamenti, riuscendo con l’aiuto della sua comunità a fare revocare alcuni controversi programmi di sorveglianza digitale.
Secondo Kahn, la sorveglianza, la raccolta, conservazione e diffusione di informazioni sono state storicamente usate per danneggiare, tracciare, monitorare specifiche comunità, quelle povere, a prevalenza afroamericana, o con la presenza di gay, trans e queer.
E di questo accusa nello specifico due sistemi di monitoraggio predittivo geolocalizzato chiamati PredPol e Operation Laser.
Basati sul monitoraggio di “persone di interesse” valutano il livello di rischio di recidiva dei singoli sospetti. I dati, basati su possesso di armi, denunce e pene passate, trattati dall’azienda americana Palantir, producono profili di rischio inclusi in un bollettino fatto di foto, indirizzi e storia personale usato dalla polizia.
Insieme ai lettori digitali di targhe automobilistiche, intercettazioni, tv a circuito chiuso, per Kahn sono alla base delle violenze della polizia.
Operation Laser è stata smantellata nell’aprile 2019 e PredPol avrebbe dovuto esserlo un mese fa.
In un’intervista ha detto che non basta cancellare la spazzatura razzista dai database, ma il sistema ideologico su cui si basa, il capitalismo, il patriarcato, la supremazia bianca e il colonialismo.
Secondo molti americani gli algoritmi non dovrebbero avere alcun posto nelle politiche di sicurezza.
I Democratici hanno presentato lunedì una proposta che vieta alla polizia federale di utilizzare il riconoscimento facciale.