Perché gli umani attaccano i sistemi basati sull’intelligenza artificiale
Un nuovo rapporto del progetto europeo Sherpa realizzato con F-Secure illustra le tecniche di attacco usate per inquinare i dati e confondere gli algoritmi alla base dei sistemi intelligenti
di ARTURO DI CORINTO per La Repubblica del 18 Luglio 2019
GLI UOMINI stanno attaccando i sistemi di Intelligenza Artificiale e non viceversa, come ci saremmo aspettati dai film di fantascienza. Ma per fare che cosa? Per manipolare i risultati dei motori di ricerca, modificare gli algoritmi dei social media, il ranking e la reputazione dei siti web, disturbare il volo dei droni o ingannare una macchina a guida autonoma. E così, al contrario di quello che speravamo, l’uso malevole degli strumenti di intelligenza artificiale non si è fermato alla creazione di sofisticate campagne di disinformazione.
L’allarme viene da un rapporto del progetto europeo Sherpa, dedicato a diritti umani e intelligenza artificiale, e che ha evidenziato come singoli criminali e hacker organizzati abbiano trovato un nuovo obbiettivo nell’attaccare i sistemi ‘intelligenti’ che suggeriscono gli acquisti di Amazon o sull’Apple Store, che definiscono il ranking dei ristoranti su TripAdvisor o che predicono la probabilità di eventi criminosi e i consumi energetici delle smart city.
Dovevamo aspettarcelo. Gli smart information systems hanno raggiunto un livello di sviluppo che avrà un impatto sempre più significativo sugli individui e sulla società. Pensate all’enorme diffusione degli assistenti virtuali come Alexa di Amazon, alle funzioni di autocompletamento di Google, agli algoritmi di Ai utilizzati su Facebook e Youtube per ‘personalizzare’ le nostre esperienze social. Tuttavia ad essere maggiormente attaccati sono i software che predicono i ‘rischi sociali’ grazie a una peculiare combinazione di sistemi di Artificial intelligence, basati su tecniche computazionali di machine learning e deep learning, e i Big Data applicati alla fornitura di servizi, alla medicina, alle assicurazioni e alla finanza.
Non si tratta soltanto di tecniche di evasione per imbrogliare le difese di reti e sistemi informatici, ma di inquinare i dati su cui i sistemi intelligenti basano il loro output, oppure di realizzare sofisticate truffe telematiche anche al telefono. Già oggi è infatti possibile usare modelli di generazione del linguaggio naturale per creare messaggi di spear phishing (una truffa via email tramite cui si ottiene accesso non autorizzato ai dati sensibili) ottimizzati per gruppi o individui specifici.
La manipolazione degli algoritmi
Perciò il focus primario di questo studio è sul modo in cui i malintenzionati possono abusare dell’intelligenza artificiale, dell’apprendimento automatico e dei sistemi informativi intelligenti. I ricercatori hanno identificato una varietà di attacchi potenzialmente dannosi per la società che vanno dalla manipolazione di algoritmi di intelligenza artificiale nelle smart city, – dove sono usati per ottimizzare i trasporti, il consumo di energia elettrica e il ciclo dei rifiuti – fino ai casi in cui la governance algoritmica può dare priorità a interessi nascosti, danneggiare aziende manipolando dati e informazioni online o beneficiare partiti di governo influenzando il dibattito politico attraverso le fake news.
rep
E mentre siamo un po’ tutti preoccupati per l’avvento della Singolarità, il momento in cui secondo studiosi come Ray Kurzweil l’intelligenza artificiale eguaglierà l’intelligenza umana, non ci rendiamo conto che le tecniche basilari che adesso emulano soltanto alcune funzioni cognitive umane, vengono usate per scopi dannosi, ogni giorno, sono capaci di mettere in crisi tutti quei sistemi che usiamo contro le intrusioni informatiche, le diagnosi mediche, i livelli di approvigionamento idrico, fino ai sistemi antifrode delle banche.
Spiega Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure, partner del progetto Sherpa: “Le persone identificano erroneamente l’intelligenza artificiale con quella umana, e penso che sia per questo che associano la minaccia dell’Ia ai robot killer e ai computer fuori controllo. Ma gli attacchi umani contro l’Ia avvengono in continuazione.”
Account falsi e reputazione
Sybil è uno di questi: l’attacco si basa sulla creazione di account fasulli al fine di manipolare i dati che l’Ia utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o ‘nascondere’ determinati contenuti a pagamento oppure no. Questi attacchi possono però anche essere usati per il social engineering di individui in scenari di attacco mirati a decisori pubblici, capitani d’azienda e alti funzionari statali.
Il rapporto rileva che le tecniche di intelligenza artificiale sono utilizzate per produrre contenuti scritti, audio e visivi estremamente realistici. E’ il caso dei deep fake video, clip completamente false, grazie alle quali è possibile, a partire da una ripresa televisiva, mimare il labiale di un parlante per fargli dire cose che non si sognerebbe mai. Che uso se ne può fare? Ad esempio per manipolare delle prove, creare una crisi diplomatica, raggirare un concorrente.
Gli usi malevoli dell’intelligenza artificiale sono già tra noi senza doverci immaginare un killer come quello del film Terminator. Per questo i ricercatori suggeriscono di progettare sistemi intelligenti sicuri, da subito.