In un'epoca in cui Internet è diventato il sistema nervoso della nostra società, sempre più servizi dipendono da un numero ristretto di provider cloud come Amazon Web Services, Microsoft Azure e Google Cloud. Negli ultimi mesi abbiamo assistito a una serie di disservizi globali che hanno colpito milioni di utenti: dal blackout di AWS che ha reso irraggiungibili innumerevoli siti per 15 ore, ai problemi di Cloudflare, Azure e altri giganti del cloud che hanno paralizzato servizi come ChatGPT, Zoom e Shopify. Questi episodi alimentano la percezione che Internet sia diventato più fragile. Ma è davvero così? O è solo il riflesso di come l'infrastruttura di rete è cambiata negli ultimi decenni? In questa puntata analizziamo come il passaggio da server distribuiti al cloud centralizzato ha trasformato la resilienza di Internet.
Nella sezione delle notizie parliamo di NanoIC, il nuovo impianto europeo per la produzione di semiconduttori, del progetto europeo REPper e infine di come la NASA ha autorizzato l'utilizzo di smartphone personali a bordo delle prossime missioni spaziali.




Brani
• Ecstasy by Rabbit Theft
• Moments by Lost Identities x Robbie Rosen
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi cercheremo di capire se la frequenza dei disservizi di Internet a cui stiamo assistendo negli ultimi mesi sia dovuta a una maggior fragilità delle infrastrutture odierne rispetto al passato o a un mero errore di percezione.
Analizzeremo l'evoluzione dell'infrastruttura di Internet, provando a capire cosa causa i blackout su larga scala e quali possono essere le strategie per rendere il web più resiliente.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina, su Spotify, Apple Podcast, YouTube Music oppure direttamente sul nostro sito.
La crisi dei semiconduttori e le recenti tensioni geopolitiche hanno spinto l'Europa a rivedere le priorità in questo settore, dove la sua dipendenza da Asia e Stati Uniti è in costante crescita.
Per questo motivo, questa settimana è stato inaugurato un nuovo impianto che rappresenta un passo verso una maggiore autonomia tecnologica nella produzione di semiconduttori.
La struttura in questione è NanoIC ed è stata costruita a Leuven, in Belgio, come linea pilota del Chips Act.
Per questo progetto, l'Unione Europea ha stanziato 700 milioni di euro, ai quali si aggiungono ulteriori 700 milioni dai governi nazionali e contributi da aziende private come ASML, per un totale di 2,5 miliardi di euro.
NanoIC è inoltre il primo impianto europeo dedicato alla progettazione e produzione di chip oltre i due nanometri di dimensione, un obiettivo ampio che spazia dall'intelligenza artificiale ai veicoli autonomi, dalla sanità avanzata alle future reti 6G.
Un'altra particolarità che caratterizza NanoIC è il principio di accesso aperto.
Non solo grandi aziende potranno infatti utilizzare il laboratorio, ma anche start-up, piccole e medie imprese e istituti di ricerca, abbassando notevolmente le barriere all'ingresso per l'innovazione nel settore e rafforzando la sovranità tecnologica europea.
Spesso non ne siamo consapevoli, ma proprio in questi mesi si sta muovendo qualcosa di concreto per evitare che i nostri oggetti finiscano in discarica al primo guasto fuori garanzia.
Esiste infatti un progetto attivo fino a settembre 2026, chiamato REPper, che sta costruendo una rete transfrontaliera di servizi per la riparazione con l'intento di invertire la logica dell'usa e getta.
Si tratta di un'iniziativa che sta implementando hub fisici e punti di contatto digitali per testare nuove modalità di assistenza e manutenzione su vasta scala.
L'idea alla base è formare le piccole e medie imprese attraverso percorsi specifici chiamati "Factory", così da creare competenze e posti di lavoro legati all'economia circolare.
Il progetto punta a modificare i comportamenti di noi consumatori attraverso incentivi e strumenti pratici che rendano l'atto di riparazione più semplice e immediato.
Questo è un tassello fondamentale per dare alle persone la consapevolezza che molto spesso esistono alternative valide alla sostituzione.
La NASA ha ufficialmente autorizzato l'utilizzo di smartphone personali a bordo delle prossime missioni spaziali.
L'annuncio è stato confermato dall'amministratore dell'agenzia e riguarderà gli equipaggi della missione Crew-12, diretta alla Stazione Spaziale Internazionale, e soprattutto la missione Artemis II, la cui partenza verso l'orbita lunare è prevista per marzo.
Questa decisione consentirà agli astronauti di catturare momenti personali per le proprie famiglie e condividere contenuti fotografici e video con il pubblico attraverso i social.
In passato, gli astronauti disponevano già di tablet per uso personale e fotocamere professionali Nikon o action cam come GoPro, che utilizzavano per documentare le attività in orbita.
Altri precedenti includono la presenza di due iPhone 4 sull'ultimo volo dello Shuttle nel 2011 e dell'impiego di un iPhone 12 da parte di un astronauta durante una missione privata SpaceX nel 2021.
Tuttavia la nuova decisione rappresenta una svolta definitiva, perché a partire dalla Crew-12 potremmo finalmente seguire alcuni aspetti della vita in orbita mai visti prima.
Quante volte ci è capitato, durante le nostre sessioni di navigazione online, di trovarci davanti a un sito web che semplicemente non carica o fornisce messaggi di errore spesso incomprensibili.
Occasioni che, tra l'altro, di frequente, capitano nei momenti più inopportuni, come controllare documenti di lavoro, fare acquisti, compilare moduli o consultare informazioni importanti.
E molte volte ci accorgiamo subito dopo che non era solo quello specifico sito a non funzionare, ma anche centinaia di altri servizi a livello globale.
Tutti con il medesimo errore.
La sensazione è quella che negli ultimi anni Internet sia diventato, tra virgolette, più "fragile", che si rompa più spesso.
E i dati confermano almeno apparentemente questa teoria.
Solo negli ultimi mesi del 2025, infatti, abbiamo assistito a una moltitudine di eventi di questo tipo.
A ottobre, Amazon Web Services, il servizio cloud di Amazon che serve a centinaia di migliaia di servizi web, ha reso irraggiungibili milioni di siti per oltre 15 ore.
Stessa sorte per Azure, l'infrastruttura cloud di Microsoft, che nello stesso periodo ha causato un disservizio di circa 9 ore.
A novembre e dicembre è stato il turno di Cloudflare, altro servizio cloud che ha causato problemi rispettivamente per 5 ore e per 20 minuti, con impatti su servizi web di tutto il mondo.
E i siti colpiti non sono certamente servizi minori o di nicchia, ma parliamo di applicazioni come Canva, ChatGPT o Zoom, e-commerce come Shopify, ma anche social come LinkedIn.
Ma veramente Internet negli ultimi anni è diventato più fragile?
O è solamente una sensazione condivisa?
In questa puntata cercheremo di rispondere proprio a questa domanda, analizzando come Internet è cambiato negli ultimi decenni e approfondendo cosa succede quando, tra virgolette, "si rompe".
Per comprendere il perché questi disservizi sembrano così frequenti, ma soprattutto così impattanti, dobbiamo innanzitutto analizzare come l'infrastruttura di rete è cambiata nel corso del tempo, aiutandoci con un esempio e paragonando Internet a una rete elettrica.
Quando il concetto di web è nato, per i primi anni ogni sito web aveva la propria infrastruttura, fatta di server e sistemi di sicurezza.
Se quindi un server smetteva di funzionare, il disservizio era limitato al singolo servizio, mentre il resto della rete continuava a funzionare correttamente.
Nel nostro esempio è come se in una città ogni casa avesse il proprio generatore di corrente.
Con l'avvento del cloud, però, questo concetto è profondamente cambiato.
Aziende come Amazon, Microsoft, Google, Oracle, IBM o Cloudflare, forti anche dei grossi investimenti in datacenter e sicurezza, hanno iniziato a mettere a disposizione le proprie infrastrutture a chiunque, di fatto affittandone potenza di calcolo.
E i vantaggi sono indubbiamente enormi e li abbiamo analizzati più volte in diverse puntate.
Invece di acquistare un server fisico, infatti, un'azienda può affidarsi al cloud e ottenere la potenza computazionale necessaria a far girare il proprio servizio, pagando in base al consumo delle risorse.
Più il sito web viene visitato, più pago, senza tra l'altro dovermi preoccupare se il server regga o meno un aumento improvviso degli utenti.
Oltre alla scalabilità, i provider cloud si occupano anche di sicurezza e manutenzione dell'infrastruttura, forti non solo della disponibilità economica, ma anche di competenze tecniche che spesso in una piccola azienda mancano.
Ecco quindi che nella nostra analogia, passiamo da una città dove ogni casa ha il proprio generatore elettrico, ad una dove esiste un grande generatore centrale che serve tutte le case: più sicuro, più affidabile, economico ed efficiente.
Ma cosa succede se questo unico generatore smette di funzionare?
Ecco quindi che arriviamo alle situazioni che abbiamo vissuto negli ultimi mesi.
Non uno, non due, ma centinaia di migliaia di servizi web smettono di rispondere perché dipendenti da un unico provider.
Per fare un esempio, Cloudflare, che fornisce servizi di protezione d'attacchi e sistemi per ottimizzare le prestazioni dei siti, gestisce circa il 20% del traffico web mondiale.
Ma com'è possibile che aziende così strutturate e sofisticate vadano in tilt così facilmente?
Anche in questo caso abbiamo dedicato una puntata proprio ai bug informatici, dove è emerso che, nonostante gli sforzi, soprattutto in sistemi così complessi come quelli di un provider cloud, è impossibile prevedere tutti i possibili scenari.
Può quindi capitare che durante una normale attività di routine, come l'aggiornamento o l'ottimizzazione dei sistemi, modifiche nei file di configurazione o manutenzione delle infrastrutture, qualcosa vada storto, attivando una serie di eventi a catena che portano a un disservizio globale.
Analizziamo quindi i problemi che sono capitati negli ultimi mesi.
Cloudflare, durante una modifica di routine a una configurazione, ha prodotto un file più grande del previsto e che il sistema non riusciva a gestire, causando un crash di tutti i servizi di proxy.
Un errore che nessuno aveva previsto, tantomeno i sistemi di protezione automatica che, tecnicamente, consideravano la configurazione come valida.
Per quanto riguarda Amazon Web Services, invece, un mal funzionamento nella gestione dei DNS per il suo servizio di database ha causato un effetto domino che ha interrotto i servizi di tutto il suo data center in Virginia, uno dei più popolosi.
Un problema simile è capitato anche a Microsoft con Azure, causando, sempre a ottobre, ulteriori interruzioni.
I problemi, poi, possono non essere solo software, ma anche hardware.
Pensiamo a server che si rompono, linee internet bloccate, blackout energetici prolungati.
E non solo.
Cosa succede se vengono meno sistemi di protezione a danni fisici?
Un esempio emblematico è quanto è successo ad OVH nel 2021, principale provider cloud europeo, quando il suo data center principale di Strasburgo è stato completamente distrutto da un incendio, cancellando con sé i dati di migliaia di clienti.
Eventi quasi più unici che rari, considerando tutte le norme e i sistemi di sicurezza moderni, ma che - come abbiamo visto - non sono mai da escludere.
Con la differenza, però, che mentre la maggior parte di questi provider ha dei sistemi di backup distribuiti in più zone del mondo, una realtà più piccola difficilmente può strutturarsi allo stesso modo per garantire una corretta protezione dei dati.
Ma è possibile evitare questi problemi?
Nella maggior parte dei casi la risposta è sì.
Questi provider cloud, infatti, come abbiamo appena anticipato, non possiedono uno ma decine di data center sparsi in tutto il mondo e tra loro isolati.
Ogni data center prende solitamente il nome della regione.
Le regioni permettono da una parte di offrire i propri servizi in luoghi geograficamente più vicini agli utenti, garantendo tempi di risposta più rapidi.
Dall'altra, l'isolamento garantisce una maggior resilienza.
Se una regione ha problemi, il traffico può essere reindirizzato verso altre regioni funzionanti, in modo automatico o quasi, garantendo la continuità dei servizi.
Tant'è che nell'esempio di Amazon, il problema si è verificato solamente nella regione della Virginia, mentre non ha colpito altri data center.
Per questo motivo, spesso, per un'azienda non dovrebbe bastare affidarsi a un unico provider o a un'unica regione, ma dovrebbe strutturare la propria infrastruttura per essere quanto più resiliente possibile.
E a questo proposito sono nati degli standard e delle certificazioni proprio per aiutare le aziende a perseguire questo obiettivo.
I più importanti sono gli standard ISO 27001, 27017 e 27018.
Questi standard aiutano le aziende a definire quali sono i rischi di un'interruzione di servizio, implementare controlli appropriati, testare e migliorare questi controlli, ma anche definire e redigere delle regole da seguire in caso di disastro e dei piani di ripristino, stabilendo tempi e modalità.
E le certificazioni prevedono che questi piani non solo vengano definiti, ma vengano anche regolarmente testati per garantire che in caso reale di disservizio sia possibile tornare online nel più breve tempo possibile.
E la modalità solitamente prevede di avere dei server di backup costantemente allineati al server principale in termini di configurazioni e dati, ma in luoghi completamente diversi, che possono essere regioni alternative dello stesso provider o, ancora meglio, provider cloud differenti.
Proprio a questo proposito, negli ultimi mesi, Amazon, Google e Microsoft stanno lavorando per rendere lo scenario "multi-cloud" più semplice da gestire per gli addetti ai lavori.
Tenere attivi due servizi cloud differenti, infatti, non è affatto semplice e servono figure tecniche molto competenti.
Oltretutto, spesso i provider cloud cercano di fornire quante più soluzioni possibili, per coprire tutte le esigenze di un'azienda e costringerla a utilizzare i servizi cloud a 360°.
Questa crescente preoccupazione di andare verso un internet più fragile, tuttavia, ha spinto queste aziende a collaborare, per facilitare l'integrazione di servizi cloud da provider diversi e semplificare ai propri clienti la creazione di infrastrutture più resilienti.
Ma se il cloud è così problematico, perché allora non torniamo allo scenario in cui internet è nato, dove ognuno aveva un proprio server?
La verità è che, paragonando pro e contro, l'ago della bilancia pende nettamente verso i benefici.
Come abbiamo detto all'inizio, avere un proprio server significa garantire anche la manutenzione, gli aggiornamenti, l'adeguamento infrastrutturale e la sicurezza, temi che richiedono grandi capacità economiche e competenze tecniche.
Il cloud, invece, garantisce di base questi aspetti, ed è forse controintuitivamente molto più affidabile.
La differenza è che quando Amazon Web Services o Google smettono di funzionare, le ripercussioni si estendono a catena su centinaia di migliaia di altri servizi, e anche l'attenzione mediatica che ne consegue è altissima.
Dall'altro lato, invece, quanti servizi indipendenti smettono quotidianamente di funzionare, ma non fanno notizia perché, magari, usati da poche centinaia o migliaia di persone?
La verità è che provider come Google, Amazon o Microsoft garantiscono tempi di operatività – uptime – del 99,99%, che corrisponde in media a circa un'ora di disservizio l'anno, numeri che solo poche aziende potrebbero raggiungere con una propria infrastruttura.
Quali altre alternative ci sono allora ai cloud?
Esistono due modelli che si contrappongono a questo movimento di centralizzazione delle infrastrutture.
Il Web3, l'internet decentralizzato e l'edge computing.
Entrambe queste tematiche sono già state approfondite in puntate passate, ma meritano comunque una breve spiegazione riassuntiva.
Il Web3, alla cui base sta la tecnologia blockchain, sogna un futuro in cui internet è totalmente decentralizzato e i dati sono duplicati in più zone del mondo su nodi gestiti non da grandi aziende, ma dagli stessi utenti che mettono a disposizione capacità computazionali in cambio di criptovalute.
L'esempio recente più lampante è Cocoon, un progetto lanciato da Telegram dove gli utenti, pagati in valuta TON, condividono le proprie GPU per l'esecuzione di modelli di intelligenza artificiale.
Il risultato?
Un'infrastruttura più resiliente, sicura e democratica.
Ci sono però dei grossi limiti: una rete decentralizzata è più difficile se non impossibile da gestire e coordinare, non esiste nessun controllo sulla manutenzione dei nodi e in molti casi può essere estremamente inefficiente.
Riprendendo l'analogia iniziale a una rete elettrica, il paragone che più si avvicina è quello di una comunità energetica, dove ogni casa produce energia e la mette in condivisione con il resto della rete.
L'edge computing invece può essere una via di mezzo tra la centralizzazione e la decentralizzazione totale.
Invece di avere un unico grande data center, si avrebbe una diffusione più capillare dei server, più vicini agli utenti, che garantirebbero risposte più rapide e conseguentemente una superficie di attacco o di diffusione dei disservizi minore.
Insomma, riprendendo il paragone di poco fa, sarebbe come avere un generatore elettrico per ogni via o quartiere.
Anche in questo caso però sarebbe necessario un controllo e una verifica centrale costante, con un notevole incremento dei costi di manutenzione.
Arrivati a questo punto sembra che il cloud computing sia l'unica alternativa possibile per l'internet del prossimo futuro.
E ritorna così la domanda iniziale.
Con una centralizzazione dei servizi sempre più accentuata, internet diventerà in futuro sempre più fragile?
Sicuramente, andando avanti, la strategia del cloud sarà ancora più dominante rispetto ad oggi, considerando anche gli investimenti in tecnologie come l'intelligenza artificiale.
Tuttavia, non è assolutamente vero che internet sia diventato più fragile, anzi, è l'esatto contrario.
La differenza è che se prima erano i singoli servizi che smettevano di funzionare, magari anche in modo abbastanza frequente, ora la superficie è molto più ampia, e le rare volte che un provider si, tra virgolette, "rompe", ha un impatto enormemente più elevato e grave.
Contemporaneamente però, solo questi giganti del settore tech hanno le capacità finanziarie e tecnologiche per garantire un web più stabile, efficiente e scalabile.
Tecnologie come il Web3 e l'Edge Computing sicuramente non verranno soppiantate, ma saranno al contrario parte integrante di un ecosistema che vedrà tutte e tre le strategie integrarsi per permettere alle aziende di pianificare e costruire infrastrutture ancora più sicure e affidabili.
I disservizi sicuramente non spariranno, è pressoché impossibile e forse l'unica strada percorribile sarà quella di puntare ad avere strategie e piani B per riuscire a rispondere a qualsiasi evenienza.
Strategie non invulnerabili, sia chiaro, ma sufficientemente resilienti da riuscire a non causare troppi danni e tornare online in tempi sempre più rapidi.
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia, io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio.
Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentrolatecnologia.it, seguiteci su Instagram a @dentrolatecnologia dove durante la settimana pubblichiamo notizie e approfondimenti.
In qualsiasi caso nella descrizione della puntata troverete tutti i nostri social.
Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.