Esperto Nato: “Internet, struttura debole. Più utenti significa maggiori rischi”
Alessandro Berni, del centro ricerche dell’alleanza di La Spezia, parla a Repubblica.it: “Lo stesso sviluppo della Rete è causa di vulnerabilità”. Così i governi lavorano sulla sicurezza
di ARTURO DI CORINTO per La Repubblica del 15 giugno 2014
ALESSANDRO Berni, del centro di ricerca Nato, riassume il suo pensiero in una frase: “Più aumenta il numero degli utenti e il valore economico delle transazioni condotte via Internet, maggiore è il rischio che deve essere affrontato”. Negli ultimi mesi si è ricominciato a parlare delle vulnerabilità di Internet e le recenti interruzioni di servizio nello scambio dei dati attraverso la rete ci hanno fatto capire che non si tratta di discorsi teorici. Per questo abbiamo chiesto a un esperto, il responsabile ICT del centro ricerche Nato di La Spezia in Liguria e membro della Internet Society italiana, quali sono i rischi del futuro di Internet e quali sono eventualmente le contromisure da adottare per evitare attacchi potenzialmente distruttivi nei confronti delle infrastrutture critiche basate su Internet.
Quanto c’è di vero nella presunta debolezza infrastrutturale di Internet? “Questa domanda riemerge periodicamente ed è stata argomento di ricerca per gli ultimi trent’anni. Il primo fatto da notare è che i protocolli alla base di Internet, il Transmission Control Protocol (TCP) e l’Internet Protocol (IP), pur concepiti negli anni ‘70, sono utilizzati ancora oggi, e con successo, per realizzare la rete che tutti noi usiamo e che costituisce lo strumento primario della comunicazione globale. Questo fatto è per se notevole e testimonia la grande capacità progettuale degli inventori Bob Kahn e Vint Cerf, che hanno realizzato un’astrazione in grado di adattarsi molto bene alla straordinaria evoluzione delle tecnologie di comunicazione e calcolo.
Negli ultimi trent’anni di debolezze vere o presunte se ne sono contate tante: nella seconda metà degli anni 80, dati alla mano, c’era chi pronosticava il collasso della rete per il troppo traffico, collasso che non si è verificato grazie all’introduzione di nuovi meccanismi di controllo di flusso. Più tardi si è visto un vincolo alla crescita futura della rete nel limitato numero d’indirizzi resi disponibili dalla versione originaria del protocollo IP. L’introduzione di meccanismi come la traduzione degli indirizzi di rete e del nuovo protocollo IP versione 6 hanno ancora una volta smentito le Cassandre.
Secondo me l’approccio più opportuno è quello di analizzare le debolezze infrastrutturali dal punto di vista dell’importanza che la rete riveste nella società odierna: più aumenta il numero degli utenti e il valore economico delle transazioni condotte via Internet, maggiore è il rischio che deve essere affrontato. Se da una parte è vero che la comunità dei tecnologi è finora riuscita a proporre delle soluzioni ai problemi emergenti, resta una certa preoccupazione per la combinazione di vulnerabilità, ben note oppure emergenti, con l’attività di attori dotati di mezzi considerevoli e grande motivazione. Non è quindi un caso che l’Internet sia oggi considerata dai governi come un’infrastruttura critica, che deve essere quindi protetta di conseguenza.
Riassumendo, si potrebbe dire che la forza che ha consentito lo sviluppo della rete come la conosciamo oggi costituisce, allo stesso tempo, la sua intrinseca debolezza. Se si dovesse reinventare la rete, come propongono i fautori degli approcci “clean slate”, probabilmente si farebbero scelte progettuali diverse, ad esempio incorporando meccanismi nativi di autenticazione, in modo da prevenire alla radice le vulnerabilità infrastrutturali.
In che modo le debolezze di internet possono influenzarne negativamente il comportamento? E perché se ne parla così poco? E’ importante ricordare che internet è nata come rete aperta (ma non come arma militare, ndr) e che al momento della sua invenzione molte delle tecnologie per la sicurezza dell’informazione o erano allo stato embrionale oppure erano coperte dal segreto. La maggior parte delle protezioni è stata quindi aggiunta nel corso del tempo e il loro livello di adozione è ancora limitato. La conseguenza è che molti protocolli essenziali per il funzionamento della rete incorporano ancora delle vulnerabilità serie, che sono sfruttate sempre più di frequente.
Un esempio è il Border Gateway Protocol, il protocollo d’istradamento al cuore della rete Internet, che può essere dirottato con una certa facilità sia per errori di configurazione sia in maniera deliberata. Alcuni incidenti sono ben noti, come quello del 2010 in cui China Telecom causò per 15 minuti una perturbazione del traffico globale. Ma ci sono notizie di molti altri incidenti che faticano a uscire dal cerchio degli addetti ai lavori. Secondo la società Renesys, che opera un servizio di monitoraggio dello stato dell’Internet, nel corso del 2013 più di 1500 reti sono state dirottate per periodi che vanno dai pochi minuti ai diversi giorni. Per capirci, in alcuni di questi incidenti il traffico urbano di Denver è stato dirottato per transitare attraverso l’Islanda, oppure il traffico tra Guadalajara e Washington è stato dirottato per passare attraverso la Bielorussia. È difficile dire se si sia trattato di un semplice errore di configurazione oppure di un’attività di spionaggio tramite un attacco man-in-the-middle (il famoso “uomo in mezzo”, in grado di osservare, intercettare, replicare verso la destinazione prestabilita il transito dei messaggi tra due punti di emissione e ricezione e anche di modificarli, ndr).
Un problema simile si ha con il DNS, il sistema utilizzato per la risoluzione di nomi dei nodi della rete in indirizzi IP e viceversa (il Domain Name System o DNS è il Sistema dei nomi a dominio che ci permette di trovare gli indirizzi delle risorse presenti in rete come i siti web traducendoli in un linguaggio comprensibile alle macchine, ndr). Attacchi di cache poisoning (“l’avvelenamento della memoria” di questi sistemi, ndr) possono ridirigere un utente dal sito cui intendevano collegarsi verso un altro controllato dall’attaccante, per rubare informazioni sensibili o per trasmettere un malware. Sarebbe possibile utilizzare il DNS Sicuro (DNSSEC) per fronteggiare simili attacchi, ma la sua diffusione è ancora limitata. Anche l’Italia, per molto tempo all’avanguardia nelle tecnologie Internet, deve ancora procedere all’introduzione di questa tecnologia nel dominio .IT, e questo si traduce nella prolungata esposizione degli utenti a un livello di rischio superiore a quello che si avrebbe seguendo lo stato dell’arte della tecnologia.
Come ciliegina sulla torta, a complicare un quadro di per sé complesso, possiamo aggiungere la grande vulnerabilità dal punto di vista della sicurezza dei sistemi operativi più diffusi. Per dare un’idea della dimensione del problema, nel solo primo semestre del 2014 il NIST (l’Agenzia americana per gli standard tecnologici, ndr) ha registrato nel suo database delle vulnerabilità più di 700 problemi classificati come “critici”. E non tutte le vulnerabilità sono rese pubbliche. Secondo uno studio rilasciato recentemente dalla RAND Corporation sul mercato degli strumenti del cyber-crime, il prezzo di una vulnerabilità “zero-day”, in altre parole non pubblicata e utilizzabile per compiere attacchi mirati ad alta probabilità di successo, viaggia sull’ordine delle centinaia di migliaia di dollari, in funzione della gravità della vulnerabilità, del tempo presunto in cui tale vulnerabilità rimarrà segreta, dal prodotto in cui tale vulnerabilità è presente e dal profilo della vittima designata. È anche a causa a questa “corsa agli armamenti” che il vicepresidente di Symantec ha dichiarato lo scorso mese al Wall Street Journal che “l’antivirus è morto”. Tutto ciò per la rete che usiamo oggi. E le cose non sono destinate a migliorare con i nuovi rischi che si stanno profilando.
E quali sarebbero gli altri rischi? Puoi fare degli esempi? Mi riferisco alla cosiddetta “Internet delle Cose”, alla domotica, alle Smart Cities, alla telemedicina e ai sistemi di trasporto intelligenti. Le potenzialità di queste nuove tecnologie sono straordinarie, ma la protezione di dati sensibili prodotti nella sfera privata dell’individuo e la comunicazione sicura tra le diverse entità connesse in rete è una sfida ancora aperta. L’idea che milioni di elettrodomestici “intelligenti” possano essere utilizzati per lanciare attacchi “Denial of Service” (attachi da Negazione di servizio o DdoS) distribuiti su scala globale è tutt’altro che fantascientifica. La società ProofPoint ha pubblicato lo scorso Gennaio un rapporto su una rete Botnet per l’invio di spam in cui il 25% delle funzionalità erano fornite attraverso router ADSL casalinghi, smart TV e anche frigoriferi intelligenti, tutti colpiti da infezioni di malware. C’é ancora molto lavoro da fare, ma non ha molto senso fasciarsi la testa e aspettare che accada l’irreparabile. E’ invece necessario intensificare gli sforzi per allargare l’adozione delle protezioni che sono già disponibili oggi e continuare a lavorare a quelle per il domani.