Fragilità Strutturale

copertina_nova_07012010
Fragilità Strutturale
Arturo Di Corinto
per Il Sole 24 Ore-Nova
Giovedì 7 Gennaio 2010

Nonostante la felssibilità dei protocolli, Internet rischia di collassare ogni giorno

Internet ha compiuto quarant’anni. Anche se li porta bene e noi diamo la sua esistenza per scontata, non è proprio così. E non solo per il divario che divide il mondo fra quelli che l’hanno usata più di una volta, un miliardo e mezzo di persone, e tutti gli altri, ma perché rischia di crollare sotto il peso del suo successo. Con le applicazioni del web 2.0, il cloud computing, i dispositivi senza fili, il file sharing, telefonia e Tv over IP, Internet diventa ogni giorno più fragile e difficile da gestire, nonostante ingegneri e aziende siano finora riusciti a trovare toppe e rimedi ai suoi problemi. Il motivo va ricercato nella logica di progettazione di un sistema che, pur potente e flessibile, prevedeva che tutti i suoi utilizzatori fossero noti e fidati e che i computer connessi a Internet fossero fissi e non si spostassero da un luogo all’altro. Esattamente il contrario di quello che succede oggi e che ha fatto dire a Richard Clarke, l’esperto antiterorrismo di Clinton, che rischiamo una “Pearl Harbour digitale”.

Per capire perché facciamo un salto nel passato. Il 29 ottobre del 1969 veniva effettuata la prima connessione fra due computer remoti, uno all’Università della California, Los Angeles, l’altro allo SRI dell’Università di Stanford a Palo Alto. Divennero centinaia nel giro di pochi mesi. Due erano le grandi novità della rete che li collegava, il packet switching, l’idea di spezzettare le informazioni che viaggiano in rete come fossero i vagoni di un trenino che ad ogni ostacolo cercano da soli la strada migliore per aggirarlo e poi a destinazione si ricongiungono, e l’uso degli Imp, computer intermedi per instradare questi pacchetti-vagoncini. Il risultato evidente era che una rete così pensata poteva essere indifferente a interruzioni di percorso dovute al malfunzionamento di uno dei suoi nodi.
Il progetto di questa rete di computer che avrebbe collegato fra di loro vari centri di ricerca, pubblici e privati, militari e accademici, era finanziato dall’agenzia di ricerca del Dipartimento americano della Difesa, l’ARPA, e da qui nacque la leggenda per cui Internet fosse nata come un’arma per le funzioni di comando e controllo dell’esercito americano. Ma l’obiettivo della rete dell’Arpa era di collocare meglio le risorse scientifiche esistenti, e superare la paura di un paese che con il lancio dello Sputnik russo temeva di perdere la guerra fredda e non solo la corsa alla conquista dello spazio.

Coloro che si succedettero alla guida di questo ambizioso progetto non erano militari ma accademici, due su tre erano psicologi, seguaci delle teorie dell’informazione del nobel Claude Shannon. Per loro Internet, che all’epoca si chiamava ancora Arpanet, prima di essere divisa in Arpa-Internet e Milnet nel 1982, doveva essere un dispositivo di comunicazione aperto. Poi sappiamo come è andata, nel 1971, Ray Tomlinson inventerà la posta elettronica; nel 1973 Vinton Cerf e Bob Kahn i protocolli di comunicazione fra i computer in rete mentre gli hacker del Mit cominciavano a usarla per connettere le persone più che le macchine, come aveva presagito il primo direttore del progetto, JR Licklider: “Fra quarant’anni avremo più tastiere che matite”, amava dire.
Oggi Internet è diventata la più grande agorà pubblica della storia dell’umanità. Ma era stata progettata per connettere alcune centinaia di computer, non per gestire gli exabyte di dati odierni che ci portano in casa i miliardi di video di Youtube e le chiacchiere di centinaia di milioni di utenti di Facebook e affini. La forza che deriva dalla sua apertura è anche la sua debolezza.

Perciò, anche se si parla sempre più spesso dei pericoli legati a Internet, quasi nessuno parla dei pericoli che Internet corre quale piattaforma di comunicazione globale. Infatti, nonostante la flessibilità dei suoi protocolli e una filosofia di funzionamento basata sul “rough consensus and running code” delle Request For Comments (le regole per farla funzionare), la rete rischia di collassare ogni giorno, per debolezza infrastrutturale e scarsa manutenzione, per gli attacchi al DNS, i Distributed Denial of Service, incidenti e sabotaggi dei cavidotti, virus e spamming, ma anche a causa degli aggiornamenti automatici massivi dei pc che inceppano software e sistemi. Altri e altrettanto gravi sono però i pericoli di carattere “culturale” che ne pregiudicano la diffusione e l’evoluzione. La discriminazione dei bytes che essa trasporta e la fine della net neutrality, la censura politica e la violazione della privacy degli utenti, il soffocamento della libertà d’espressione in seguito all’aumento di cause legali e le minacce di disconnessione dalla rete per sospetta e ripetuta violazione del copyright, per l’omofilia, ma soprattutto l’assenza di un progetto complessivo di governance mondiale della rete stessa in assenza della quale le reti nazionali potrebbero trasformarsi in reti autarchiche con proprie e diverse regole.
Problemi che secondo Vinton Cerf troveranno soluzione nella maturazione degli utenti e nell’allargamento della loro platea, anche perché un blocco totale della rete più volte temuto, non si è mai realizzato e perché i pericoli veri starebbero più nella scarsa protezione dei singoli computer che nella debolezza dell’infrastruttura. Intanto, mentre il consorzio universitario per l’Internet 2 (http://www.internet2.edu) continua a sperimentare la sua rete di ricerca ultraveloce, la National Science Foundation americana finanzia copiosamente gli studi – reti senza fili, nodi che si autocertificano contro i virus, simulazioni di attacchi terroristici alle infrastrutture critiche – per progettare una Internet di nuova generazione, stavolta a prova di bomba, termonucleare, s’intende.

Lascia un commento