Cybersicurezza: i punti deboli della tecnologia e delle infrastrutture strategiche

0
1253

Il progresso tecnologico è una costante dei nostri tempi, al ritmo forsennato del nuovo, che non lascia molto spazio né il tempo necessario per adeguarsi ai sempre più stupefacenti mezzi che la scienza applicata ci propone. Nel breve volgere di pochi anni le più consolidate abitudini di vita vengono stravolte e cancellate da nuove tecniche, che entrano a far parte della nostra esistenza, obbligandoci ad un processo di immediato aggiornamento (quel costante processo di updating che è ormai necessario per operare efficacemente nella società) attraverso l’utilizzo di un’enorme massa di nuovi strumenti operativi. Il lato positivo è valutabile in termini di una sempre maggior efficienza ed una riduzione di tempi e costi di produzione che ne sono diretta conseguenza. Ma (un “ma” esiste sempre) questa corsa inarrestabile all’utilizzo delle nuove tecnologie, porta con sé una serie di problemi connessi all’affidabilità della stessa high-tech che riguarda gran parte della nostra vita privata, oltre che di quella lavorativa.

Se, da una parte, lo sviluppo delle nuove tecnologie è un enorme passo avanti nella scienza, la sua applicazione pratica non è scevra da criticità che non possono essere trascurate. Facciamo un esempio: ai tempi del Titanic (1912) l’allora nascente tecnologia delle radiotrasmissioni permise al marconista di bordo, Jack Phillips, di lanciare un SOS, per cui una parte dei naufraghi vennero salvati dalle navi circostanti che ricevettero la richiesta di soccorso. Fu, tuttavia, una tragedia immane, con oltre 1500 vittime. Per la tecnologia disponibile allora, possiamo dire che la sala radio del transatlantico che urtò l’iceberg fu il più efficace presidio di sicurezza, se non riuscì a portare la salvezza. Tutte le principali compagnie di navigazione della prima metà del 900 provvidero dunque a dotarsi di apparati radio-trasmittenti. Se non fu sufficiente la vicenda del Titanic a scongiurare la tragedia ricorrente dei naufragi fu, comunque, l’inizio di una nuova era.

Pensiamo, però, per restare al campo della sicurezza navale, al caso dell’incidente della nave Costa Concordia, verificatosi in piena epoca di comunicazioni satellitari, e laddove il vascello era addirittura ben visibile da terra, a meno di due miglia dalla costa. L’errore umano, tanto nel caso del Titanic, quanto in quello della Concordia (accaduto esattamente cent’anni dopo, nel 2012) ebbe la meglio sulla tecnologia. Certo, ben venga la tecnologia e meno male che i mezzi di soccorso odierni sono ben altri di quelli disponibili ai tempi del Titanic. Ma resta, immanente, l’errore umano, che nessuna tecnologia può del tutto eliminare, quand’anche non capiti che proprio la tecnologia lo possa, al contrario, amplificare in termini di gravità ed estensione spaziale dei danni, e basti pensare alla famosa valigetta dei missili nucleari dei presidenti statunitensi (e, pare, anche russi) o ad una “banale” serie di manovre sbagliate operate da un singolo uomo sulla complessa console di controllo di una centrale nucleare. Sono, questi, tra i peggiori incubi del terzo millennio. L’errore umano sarà sempre possibile, finché vi sarà l’uomo.

Dal punto di vista strettamente tecnologico è certamente presente lo sforzo per dotare ogni tecnologia potenzialmente mortale su vasta scala di una serie di ridondanti dispositivi di sicurezza che possano, perlomeno, ridurre il rischio di errore umano. Ma nessun dispositivo è, comunque, a prova di pazzia dell’uomo, ed il disastro dell’aereo Germanwings 9525, deliberatamente schiantato al suolo nel 2015 dal suo stesso pilota, evidenzia il problema in tutta la sua drammaticità. Semplificando un poco, possiamo dire che i computer possono, in qualche misura, simulare l’intelligenza umana, ma certamente sono ancora lontani i tempi in cui potremo disporre di tecnologie che possano prevedere così minuziosamente la follia o il fanatismo religioso da riuscire a prendere il controllo della situazione anche contro la volontà di chi preme quei pulsanti. Ecco uno dei primi e più sconfortanti limiti di tanta tecnologia: l’errore umano o la deliberata scelta del terrorista o del folle di bypassare i complessi meccanismi di sicurezza (sia esso un autopilota, un azionatore elettronico multi-fase o quant’altro di simile) è ancora realtà, e siccome la tecnologia permette oggi di far viaggiare aeromobili e immense navi dalla capacità di trasporto passeggeri decuplicata rispetto ai tempi del Titanic, le conseguenze in termini di vittime sono enormemente accresciute proprio dal progresso tecnologico.

Esaminando ancora l’aspetto strutturale del problema, vi è inoltre da osservare che il vero balzo in avanti (?) compiuto dalle comunicazioni telematiche degli anni 2000 è indubitabilmente dovuto alla stupefacente infrastruttura che ha trasformato il mondo in un paese e persino lo spazio in qualcosa di ben raggiungibile addirittura da casa. Le reti informatiche, prima fra tutte internet, consentono l’interconnessione bilaterale (in duplex) di un numero virtualmente illimitato di macchine e terminali (quali i computer e persino i telefonini personali) e, quindi, di disporre in pochi centesimi di secondo, di quasi tutte le informazioni che l’umanità intera ha pazientemente raccolto nei millenni, il tutto con un clic ed ovunque ci si trovi in quel momento.

Le enciclopedie del secolo scorso, fonte inesauribile d’informazioni per gli studenti e gli studiosi, sono ormai relegate a prendere polvere sugli scaffali delle librerie, come quelle che ancor oggi amano mettersi alle spalle gli avvocati ed i direttori dei giornali nelle interviste. Molto più di tanto sapere, oggi, è consultabile in pochi secondi dal telefonino e, in qualche caso, l’aggiornamento delle informazioni è in tempo reale. Ma la domanda è questa: come è tecnicamente possibile tanta meraviglia cognitiva? La risposta è drammaticamente una sola: attraverso le reti di comunicazioni, ossia le infrastrutture informatiche e soltanto attraverso di quelle.

Appare, di conseguenza, lecito e previdente chiedersi cosa succederebbe se le infrastrutture stesse subissero un blackout su larga scala. Tanto più se tali infrastrutture siano operate da società private, non è problema secondario domandarsi cosa potrebbe comportare un perdurante blackout della rete internet in conseguenza di un attacco terroristico, non necessariamente cruento ma anche soltanto portato a termine mediante la pirateria informatica, sulla società attuale, sempre più web-based.

Dalla fornitura di energia elettrica al funzionamento di importanti settori ospedalieri, ai sistemi di difesa civile e militare, sempre più parte del funzionamento di tali servizi indispensabili è basato su computer interconnessi. Se cadesse la connessione, o se tale connessione potesse essere manipolata con dati falsati, i servizi stessi rimarrebbero totalmente inoperativi. Purtroppo, l’avverbio “totalmente” non è esagerato, in considerazione di grosse falle a livello di
progettazione, palesemente riscontrabili in qualsiasi struttura tecnologica attuale. Quali falle? Quelle derivanti dall’avere colpevolmente ignorato finora la possibilità di ricorrere, in caso d’emergenza, a sistemi di generazione tecnologica precedente, ma più semplici ed affidabili, quali le comunicazioni point-to-point dei sistemi di rice-trasmissione via radio diretti (ossia non connessi ad infrastrutture terrestri o spaziali) sui quali erano basate almeno le principali strutture di sicurezza del nostro Paese fino ai primi anni 90 del secolo scorso.

D’accordo, la velocità e la capacità di veicolare enormi quantità di dati di una connessione di oggi è impensabile per una trasmissione diretta da radio a radio (sebbene esistano sistemi di trasmissione radio che utilizzano protocolli di trasmissione dati tipici dell’informatica), ma la tecnologia point to point non presenta il rischio di vedere annullata (dolosamente o no) ogni trasmissione dati su scala globale ed è ancora irrealizzabile qualcosa che possa impedire una per una ogni trasmissione radio diretta, almeno su vasta scala: qualcuna riuscirà comunque, sfuggendo al blackout globale informatico. Ma, tecnicismo a parte, è soprattutto, una questione di metodo: evitare di accentrare ogni forma di comunicazione dovrebbe essere un principio di elementare prudenza. E invece no. Il futuro non ci riservi di sperimentare di persona cosa potrebbe accadere in caso di totale mancanza di accessibilità alla rete internet. E non si parla di non poter usare i social media o di non poter navigare per diletto, ma di vedere messa in ginocchio la massima parte delle strutture di sicurezza e soccorso, oltre che quasi tutte le fonti d’informazione radio-televisive (ormai totalmente dipendenti dalla connessione web. La stessa cosa vale persino per le reti di posizionamento satellitare (la G.P.S. americana, la Glonass russa e la nascente rete Galileo europea), usate da tutti ma che del loro funzionamento ed accessibilità non possiamo chiedere garanzia alcuna ai governi che le operano, non lo si dimentichi, principalmente per i loro interessi militari.

Probabilmente, sarebbe saggio adottare una prassi che potremmo definire “one-step-behind”, ossia utilizzare, sì, le nuove tecnologie informatiche, ma anche per rendere più performanti quelle meno recenti (prime tra tutte quelle di comunicazione) in quanto assai più sperimentate ed affidabili. Nelle situazioni d’emergenza, l’affidabilità viene sempre prima della velocità di connessione e la semplicità di un tasto telegrafico che batta tre punti, tre linee, tre punti è qualcosa che funzionerà sempre e pure con mezzi di fortuna. Integrare le nuove tecnologie d’avanguardia con sistemi ben rodati e certamente impiegabili anche in condizioni di ridotta disponibilità di risorse, come potrebbe essere un lungo blackout energetico, potrebbe essere la carta vincente, laddove i sistemi globali dovessero cedere d’un tratto con effetto domino. In caso di vera emergenza, sarebbe auspicabile che si possa ricorrere a sitemi “di riserva”, semplici, affidabili, e che possibilmente non siano in mano a terzi. C’è poca consapevolezza su questo punto.

È il principio che conta, ossia quello di non consegnare ad estranei le chiavi di casa nostra, confidando nella loro correttezza dettata da una sorta di fratellanza del web, o magari in nome del diritto all’interconnessione che non esiste affatto e che appare piuttosto incerto ipotizzare in un futuro prossimo, proprio a causa degli interessi, lo si ripete, prevalentemente militari, che reggono in ogni Stato il funzionamento delle reti interconnesse. Siamo, per fortuna, sempre più distanti dall’ultima guerra vera che ci abbia riguardato, da dimenticare che la maggior parte delle tecnologie di nuova adozione hanno scopi prevalentemente militari, e qui le chiacchiere stanno a zero. Così va il mondo (tutto) e non potremo farci nulla.

Ma, oltre a quegli aspetti prettamente strategici, basti considerare che, ad oggi, chiunque sia, di fatto, il proprietario di un’infrastruttura globale di comunicazione, può spegnerla quando vuole e negarne l’accesso a chi ritenga opportuno farlo. Per non parlare di un vero attentato informatico globale o mirato ad una vasta zona geografica, finora mai occorso, ma che non possiamo escludere, né ritenere superficialmente ed aprioristicamente di poco conto. Dovremmo rifletterci tutti, finché siamo in tempo.

Di Roberto Ezio Pozzo in ATLANTICO QUOTIDIANO QUI

LASCIA UN COMMENTO

Inserisci il tuo commento!
Inserisci il tuo nome