Prima dell’invasione dell’Ucraina da parte della Russia nel 2022, gli Stati Uniti hanno rivelato un complotto russo per utilizzare video deepfake finalizzati a giustificare un’invasione dell’Ucraina. A invasione avvenuta, funzionari del governo ucraino temevano che la Russia avrebbe potuto diffondere deepfake con il presidente ucraino Volodymyr Zelenskyj che si arrendeva.
Ed è successo: gli hacker hanno divulgato un video con il presidente Zelenskyy che dice ai suoi soldati di arrendersi, e il video era un falso.
L’uso di falsi video («deepfake video») a fini di disinformazione politica, manipolazione economica, furti e frodi, era considerato un pericolo già nel 2014 dagli analisti del World Economic Forum di Davos.
La redazione consiglia:
Le guerre del futuro si combatteranno nei nostri cuori
La regola oggi è che tutte le campagne di disinformazione possono includere deepfake, foto falsificate, siti Web contraffatti e altre informazioni estrapolate dal contesto per ingannare il pubblico. L’Ue sta lavorando a limitarne gli eventuali impatti attraverso le grandi piattaforme ma non sappiamo se il Digital Services Act e il Codice di condotta contro la disinformazione pubblicato a giugno ci riusciranno.
Gli esperti stimano che entro il 2026 fino al 90% dei contenuti online potrebbero essere generati sinteticamente usando l’intelligenza artificiale per i giochi e per migliorare i servizi, ma anche per scopi criminali.
In un rapporto di Europol dedicato al tema si legge che «Quotidianamente, le persone si fidano della propria percezione per farsi guidare nelle scelte e tendono a trattare le registrazioni uditive e visive di un evento come un resoconto veritiero. Foto e video sono informazioni importanti per il lavoro di polizia e prove in tribunale. Ma cosa accadrebbe se questi media potessero essere generati artificialmente, adattati per mostrare eventi che non hanno mai avuto luogo, travisare gli eventi o distorcere la verità?».
Sembra fantascienza ma non lo è. L’«Internet crime complaint center» dell’Fbi, l’Ic3, conferma che sempre più aziende denunciano candidature di lavoro fasulle, basate sui deepfake, per colloqui di lavoro. Secondo Kaspersky, «gli impostori utilizzano video, immagini, registrazioni e identità rubate fingendosi qualcun altro per ottenere una posizione IT da remoto. L’assunzione di un deepfake può aprire le porte dell’azienda ai cybercriminali e la vittima probabilmente non avrà la possibilità di consegnare il truffatore alla giustizia».
Con l’evoluzione della tecnologia, gli attaccanti possono utilizzare questo metodo per raggirare i test biometrici utilizzati dalle banche e dagli scambi di criptovalute per verificare l’identità degli utenti contro il riciclaggio di denaro.
Secondo un rapporto di Sensity, 9 su 10 principali fornitori di servizi Know Your Customer (KYC) sono vulnerabili agli attacchi deepfake.