L’IA non è (ancora) la nostra miligore amica. ACN all’incontro di AGN e AIPSA

I sistemi di Intelligenza Artificiale, ad esempio quelli di tipo generativo, possono essere usati per manipolare dati, informazioni e sistemi informatici, produrre falsità e disinformazione.

Ovviamente l’Intelligenza Artificiale può rappresentare un pericolo dal punto di vista della gestione sicura dei sistemi informatici, ma il fatto che possa rappresentare un pericolo cognitivo per i singoli utenti non è ancora abbastanza esplorato. Eppure, siamo tutti d’accordo che fake e deepfake possono manipolare le nostre percezioni ed essere usati come strumento di disinformazione e propaganda, leve della guerra cognitiva.

Le stesse IA possono essere hackerate, manipolandone i dati di addestramento, rimuovendo le regole di censura, riprogrammando quelle esistenti per scopi illeciti e criminali.

In aggiunta, poiché sono molti i Paesi che hanno abbastanza dati, potenza di calcolo e algoritmi, le IA sono un rischio emergente alla sovranità digitale visto che il loro impiego può servire a creare nuove armi informatiche, come i malware polimorfi, ma anche a individuare più facilmente le vulnerabilità sia dei sistemi umani sia di quelli software e, secondo alcuni studi, di hackerare sistemi informatici senza il feedback umano.

Di tutto questo ho parlato al convegno organizzato da AGM SOLUTIONS in collaborazione con AIPSA Associazione Italiana Professionisti Security Aziendale a Milano, con un titolo molto bello: “L’AI non è ancora la nostra migliore amica”.

In questa occasione ho potuto confrontarmi con colleghi e amici come Andrea Agosti, Alessandro Manfredini, Matteo Macina e Alessandro Piva e Cristian Fassi grazie alla moderazione di Gianni Rusconi e agli auspici di Matteo Franzosi. Il loro punto di vista è stato per me molto stimolante.