Hacker's Dictioanry, rubrica Il Manifesto,

Dimmi come parli e ti dirò chi sei

Un ingegnere cinese ha svelato alla BBC che la sua azienda produce sistemi di intelligenza artificiale con l’obbiettivo di registrare lo stato emotivo delle persone. Gli algoritmi di machine learning, incorporati nelle telecamere di sorveglianza, sarebbero in grado di analizzare le micro espressioni del volto e i livelli di sudorazione dei soggetti umani come una moderna macchina della verità.

Il sistema, impiegato nei centri di detenzione per la minoranza musulmana in Cina, gli Uiguri, secondo il whistleblower, sarebbe usato all’interno dei posti di polizia dove i malcapitati vengono fatti sedere ammanettati alle sedie per rilevarne la colpevolezza sulla base del loro stato ansiogeno.
Non esistono però studi scientifici che ritengano affidabili questi metodi di rilevazione delle emozioni che producono più falsi positivi che informazioni utili alle autorità di polizia.

Il legame delle aziende cinesi con lo Stato è noto. Il gruppo Ipvm afferma di aver scoperto prove nei brevetti depositati da tali aziende che suggeriscono che i prodotti per il riconoscimento facciale sono stati specificamente progettati per identificare le persone di etnia uigura.
Ipvm ha anche affermato di aver trovato materiale di marketing dalla società cinese Hikvision che pubblicizza una fotocamera AI rilevatrice di uiguri e un brevetto di Dahua, un altro gigante tecnologico, per identificarli, insieme ad altri 55 gruppi etnici. Huawei ha fatto lo stesso nel 2018 con Megvii Technology.

Gli Uiguri in Cina sono obbligati a portare con sé uno smartphone, utilizzando il quale le Autorità possono tracciarne gli spostamenti.
Accanto all’ingresso delle loro abitazioni c’è un QR code, un Quick Recognition code, quel simpatico oggetto grafico a quadretti che si usa per le operazioni bancarie e molto altro. Grazie al Qr code i sorveglianti statali possono sapere chi è in casa. In Occidente le cose non vanno meglio.

A spiegarlo è un professore dell’Università della Pennsylvania, Joseph Turow, in un bel libro “The voice catchers”, in cui argomenta la pericolosità dei sistemi di intelligenza artificiale che presiedono il riconoscimento vocale. Secondo Turow lo sforzo industriale dietro all’uso della voce per capire lo stato emotivo – rabbia, fame, desiderio -, è orientato alla creazione di pubblicità personalizzata e alla modellazione dei comportamenti d’acquisto.

Il risultato probabile è che Alexa di Amazon e Siri di Apple da maggiordomi digitali potrebbero trasformarsi in indovini che usano il suono delle nostre voci per elaborare dettagli intimi come stati d’animo, desideri e condizioni mediche fino allo shopping online. Ci siamo già vicini. Spotify è in grado di suggerire le canzoni in base al tono della voce e al genere del richiedente mentre il braccialetto di Amazon Halo health riconosce “l’energia e la positività della voce umana”.

Questi sistemi potrebbero un giorno essere usati dalla polizia per determinare chi dovrebbe essere arrestato. Di fronte agli errori del riconoscimento facciale basato sugli algoritmi di IA, diverse aziende hanno corretto il tiro e si sono impegnate perché la polizia non le usi, almeno per ora. E per la voce?

Intanto proprio oggi il Centro Hermes, Privacy International, Homo Digitalis e noyb – the European Center for Digital Rights hanno inviato alle Autorità per la protezione dei dati personali di Austria, Francia, Grecia, Italia e Regno Unito un reclamo contro Clearview AI, Inc., l’azienda di riconoscimento facciale che afferma di avere “il più grande database del mondo con oltre 3 miliardi di immagini di volti”.