
Hype dell'IA, guerre e falle di sicurezza: il mondo è rotto o solo in piena riconfigurazione?
Indice dei contenuti
Qualche settimana fa, in un altro articolo , avevo già scritto che il mondo sta cambiando più velocemente di quanto la maggior parte delle persone immagini. Oggi voglio formulare questo pensiero in modo ancora più netto.
Nelle conversazioni con clienti e team torna sempre la stessa domanda: quanto di tutto questo è progresso reale, e quanto è soltanto rumore accompagnato da un buon marketing? Se si seguono le notizie dall’inizio del 2026, è facile avere la sensazione che tutto si stia spostando nello stesso momento. OpenAI, Google, Anthropic e xAI sono in corsa pubblicamente. I robot umanoidi stanno passando dalle demo alle fabbriche. Guerre e pressione geopolitica colpiscono improvvisamente le catene di approvvigionamento di chip e gas. Intanto compaiono nuove vulnerabilità quasi ogni giorno, e ogni nuovo strumento porta non solo più produttività, ma anche più permessi, più flussi di dati e più superficie d’attacco.
Per chi lavora costruendo infrastrutture sicure e cercando di mantenere le persone operative in un mondo digitale più incerto, tutto questo non assomiglia a normali notizie tech. Assomiglia a una compressione del tempo. La domanda non è più soltanto quale modello benchmarka meglio. La vera domanda è questa: il mondo è davvero rotto, oppure stiamo assistendo all’inizio di una riconfigurazione completa?
La mia risposta, in questo momento, è semplice: il mondo non si è rotto all’improvviso. Però sta venendo riordinato con una velocità e una durezza che superano molte persone sul piano mentale, economico e della sicurezza.
In breve:
- Quello che vediamo assomiglia meno a un collasso e più a una ricostruzione frettolosa di potere, infrastruttura e fiducia.
- La sicurezza resta il livello di base, perché l’IA su sistemi fragili significa soprattutto errori più rapidi e danni più grandi.
- La vera domanda non è solo quale modello sia avanti, ma chi controlla chip, compute, piattaforme, dati e catene di fornitura.
Cosa Si Sta Davvero Accelerando
Qui non conta un singolo lancio di modello, ma l’interazione tra cinque forze:
- enormi quantità di capitale
- risorse di compute scarse
- giochi di potere geopolitici
- attenzione mediatica come leva strategica
- la realtà tecnica per cui il software non è mai davvero finito né davvero sicuro
Quando queste cinque forze si muovono insieme, nasce una sensazione di accelerazione permanente. È esattamente ciò che mostra il 2026. OpenAI ha chiuso un altro massiccio round di finanziamento il 31 marzo 2026. Anthropic ha annunciato la sua Series G già il 12 febbraio 2026. xAI ha raccolto nuovo capitale all’inizio di gennaio. Google, nel frattempo, non ha nemmeno bisogno di grandi titoli sulle raccolte, perché può sostenere la sua corsa all’IA tramite pubblicità, cloud, hardware e potere di mercato esistente. Queste non sono più normali notizie software. Sono segnali di una lotta per l’infrastruttura.
È qui che per me inizia la differenza tra hype e struttura. L’hype fa rumore. La struttura resta. Ciò che conta non è solo chi ha la demo migliore, ma chi controlla allo stesso tempo modelli, compute, distribuzione, hardware e fiducia.
Chi Sta Giocando Quale Partita
Se si osservano con lucidità i grandi attori dell’IA, si capisce che non stanno giocando tutti la stessa partita. Ed è proprio questo che rende il mercato interessante e rilevante dal punto di vista della sicurezza.
OpenAI
OpenAI presidia la distribuzione. Molte persone non dicono «uso un LLM», ma semplicemente «uso ChatGPT». Con l’idea di una «unified AI superapp» e un livello di prodotto sempre più fitto fatto di Codex, connettori, librerie di file, deep research e funzioni collegate, OpenAI sta cercando di entrare dal lato consumer nel lavoro quotidiano. Dal punto di vista della sicurezza questo conta, perché una finestra di chat può diventare molto rapidamente un punto di concentrazione per identità, sessioni, file, plugin e permessi degli agenti.
Anthropic
Anthropic gioca molto di più sulla fiducia enterprise, sulla vicinanza agli sviluppatori e su una narrativa centrata sulla sicurezza. Claude Code, Computer Use, Cowork e l’attenzione verso modelli di lavoro più controllabili per le aziende fanno apparire Claude meno come un prodotto di massa e più come un prodotto di fiducia. A mio avviso, Anthropic vende più della sola performance del modello: vende l’idea che le organizzazioni possano avvicinare Claude al codice sorgente, ai workflow e agli spazi decisionali sensibili. Ho approfondito Mythos e Project Glasswing più nel dettaglio in un articolo separato .
Google sta giocando la partita più ampia e probabilmente più resistente. Sul lato Gemini si vede un intero continente di prodotto che va da Workspace a Pixel fino a DeepMind. Con Google Vids, l’IA entra nelle normali superfici di lavoro invece di essere mostrata solo come una demo spettacolare. Allo stesso tempo, Google è uno dei pochi attori a controllare in misura ben maggiore il proprio destino di compute grazie a Ironwood, la sua settima generazione di TPU. Per questo continuo a pensare che Google sia l’attore più sottovalutato di questa corsa.
xAI
xAI appare più silenziosa, ma non è affatto piccola. Con Colossus, Grok Business, Grok Enterprise e il collegamento ormai ufficiale con SpaceX, anche xAI sta cercando di occupare seriamente infrastruttura e business.
Quello che trovo particolarmente interessante qui non è solo il modello, ma la tesi da datacenter che c’è dietro. xAI descrive Colossus come una sorta di gigafactory of compute: costruita in 122 giorni, poi raddoppiata a 200.000 GPU in altri 92 giorni, con una roadmap verso ancora più capacità. Questo somiglia meno a un classico lancio software e più a un tentativo di portare molto presto sotto controllo diretto un collo di bottiglia strategico.
Come osservazione di mercato, questo mi ricorda fortemente uno schema già visto nelle aziende di Musk. Tesla ha sviluppato la rete Supercharger per anni prima che molti concorrenti capissero davvero il valore strategico di quel livello di infrastruttura. Con la raffineria di litio in Texas, Tesla è poi salita ancora più a monte in una fase critica della catena del valore della batteria. xAI sembra voler fare qualcosa di simile sul lato del compute: allenare modelli e, allo stesso tempo, plasmare presto l’infrastruttura scarsa da cui quei modelli dipendono. Quando la concorrenza si rende conto di quanto sia importante quel livello, il vantaggio spesso non sta solo nella tecnologia, ma nel tempo già trascorso.
Questo non rende automaticamente xAI migliore. Ma rende l’azienda più flessibile strategicamente di quanto molti oggi le riconoscano.
Apple
In questo quadro Apple assomiglia più a un sintomo che a un motore. Il fatto che Apple utilizzi Gemini di Google per il futuro stack di Siri mostra chiaramente che nemmeno un’enorme potenza di piattaforma garantisce leadership sui modelli. Per utenti e team di sicurezza questo non semplifica nulla. Quanto più si mescolano promesse on-device, retorica private cloud compute e core di modelli esterni, tanto meno è chiaro dove finiscano davvero dati, contesti, log e decisioni.
Perché Anthropic Continua A Tornare Nei Titoli
Se si comprimono gli ultimi quattro mesi intorno ad Anthropic, si ottiene un flusso di notizie insolitamente denso: Claude Opus 4.6, Claude Sonnet 4.6, la Series G, l’acquisizione di Vercept, nuove partnership, l’Anthropic Institute, 100 milioni di dollari per il Claude Partner Network, la fuga di Mythos su Fortune, la fuga di Claude Code su Bloomberg, le voci di IPO e poi Project Glasswing il 7 aprile.
Questo non dimostra automaticamente una coreografia PR segreta. Però mostra quanto coerentemente Anthropic stia trasformando visibilità in posizione di mercato nel 2026. Per un’azienda che vende contemporaneamente fiducia, enterprise readiness e un possibile orizzonte di IPO, la visibilità non è un effetto collaterale. Fa parte del gioco.
I Robot Umanoidi Non Sono Più Una Nota A Piè Di Pagina
Mentre aziende come Anthropic, OpenAI e Google combattono su modelli, titoli e workflow software, le stesse capacità si stanno muovendo anche nel mondo fisico. E questo è ancora sottovalutato, perché molte persone associano ancora l’IA soprattutto a finestre di chat, generatori di immagini e assistenti di coding.
Google DeepMind presenta ormai Gemini, Veo, Imagen, Lyria e Gemini Robotics uno accanto all’altro. Allo stesso tempo, Boston Dynamics e Google DeepMind hanno annunciato nel gennaio 2026 una collaborazione attorno ad Atlas e Gemini Robotics. È molto più di un bel momento da fiera tecnologica. Mostra che la logica dei foundation models sta lentamente lasciando il browser per entrare nei sistemi fisici.
Non siamo ancora in un mondo in cui domani mattina ci saranno robot umanoidi ovunque accanto a noi. Ma siamo chiaramente in una fase in cui le fabbriche testano, ricerca e hardware si avvicinano, e la robotica non viene più immaginata senza IA. Chi parla del futuro del lavoro pensando solo al software da ufficio, quindi, sta guardando troppo poco.
La Sicurezza Resta Il Vero Livello Di Base
La cosa che mi occupa di più in tutto questo dibattito non è solo la corsa ai modelli, ma ciò che tutto questo significa per la sicurezza. Qui aiuta un rapido sguardo alla piramide di Maslow. La sicurezza compare molto in basso, normalmente al penultimo livello. Questo è il punto decisivo: la sicurezza non è una funzione di lusso da aggiungere in seguito. È una precondizione perché tutto il resto sopra possa funzionare in modo stabile. Questo vale per le persone e vale allo stesso modo per l’infrastruttura digitale.
Nel mio lavoro quotidiano, sicurezza non ha mai significato sicurezza perfetta. Significa piuttosto questo:
- comprendere i rischi
- ridurre la superficie d’attacco
- pianificare le modalità di guasto
- limitare i danni
- mantenere operative le persone
Si cerca quindi il massimo livello di sicurezza realisticamente possibile sapendo al tempo stesso che nulla sarà mai davvero sicuro. È proprio qui che il 2026 diventa così scomodo. La velocità del cambiamento cresce più in fretta della nostra capacità di stare al passo. Non abbiamo abbastanza buoni sviluppatori, non abbiamo abbastanza buoni professionisti della sicurezza e di certo non abbiamo sufficiente capacità per revisionare con attenzione la montagna di codice che continua a crescere e che ora viene prodotta non solo da esseri umani, ma anche dai modelli. Internet non è mai stato completamente sicuro. Quello che cambia è la velocità con cui ora si scala l’insicurezza.
Internet Sembra Più Fragile Perché La Velocità Degli Exploit Sta Salendo
Non credo che il 2026 sia diventato improvvisamente meno sicuro perché le persone abbiano dimenticato come si scrive software. Credo piuttosto che la combinazione di più software, più automazione, più dipendenze, più supply chain e modelli migliori stia rendendo visibile quanto tutto questo sia sempre stato fragile.
Quando Anthropic tira fuori dai test di Mythos bug rimasti nascosti nei sistemi per 16 o 27 anni, non si tratta di una nota esotica. È un promemoria del fatto che i sistemi digitali sono pieni di debito storico, ipotesi implicite e vecchi strati che ormai quasi nessuno comprende davvero. Per questo, per me, continua a valere una vecchia regola operativa:
Preferisco usare pochi strumenti buoni piuttosto che molti mediocri.
Ogni strumento aggiuntivo porta con sé:
- nuovi token
- nuovi segreti
- nuove sessioni browser
- nuove librerie
- nuovi plugin
- nuove catene di aggiornamento
- nuovi permessi
e quindi nuovi modi in cui le cose possono andare male.
In un mondo in cui i modelli leggono, combinano, prioritizzano e talvolta sfruttano più velocemente di prima, la riduzione dello stack torna a contare. Non perché il minimalismo suoni elegante, ma perché la complessità genera costi di sicurezza molto concreti.
Il Problema Più Grande È Ormai Un Problema Di Verità
Quello che in questo momento mi preoccupa quasi più delle vulnerabilità classiche è il problema epistemico: che cosa è ancora reale? Un’immagine, un tempo, era almeno una prova relativamente utile. Un video ancora di più.
Oggi viviamo in un mondo in cui:
- immagini sintetiche possono essere generate in pochi minuti
- le voci possono essere clonate in modo convincente
- i video possono essere falsificati in modo persuasivo
- migliaia di sottopagine SEO possono essere prodotte automaticamente
- interi spazi di opinione possono essere riempiti artificialmente
Per la sicurezza, questo rappresenta un cambiamento di fondo. Sicurezza non significa più solo:
- il mio endpoint è pulito?
- la mia password è forte?
- la mia rete è segmentata?
Significa anche:
- posso ancora fidarmi della fonte?
- posso riconoscere prove manipolate?
- posso prendere decisioni basandomi su segnali reali?
- quali canali restano affidabili durante un incidente?
Questo non è più un problema accademico. Se le aziende si affidano sempre di più ad agenti IA, comunicazione automatizzata e contenuti sintetici, il centro del problema si sposta da «proteggere i sistemi» a «proteggere sistemi, identità, decisioni e percezioni della realtà».
La Fiducia Stessa Sta Diventando Superficie Di Attacco
Un altro punto di cui si parla ancora troppo poco è che la fiducia oggi è più grande della semplice crittografia o di regole di rete pulite. È diventata una questione di piattaforma, di fornitore e in certa misura anche di Stato.
Meredith Whittaker, da Signal, l’ha riassunto molto bene su Bloomberg nel gennaio 2026. La sua idea era che gli agenti IA siano «pretty perilous» per le app sicure perché, per svolgere il proprio lavoro, hanno bisogno di permessi profondi, accesso ampio ai dati e spesso visibilità di sistema completa sui contenuti. Ed è proprio per questo che il tema conta così tanto dal punto di vista della sicurezza. Anche se la crittografia resta matematicamente solida, perde valore pratico quando il sistema operativo, l’agente o la piattaforma circostante possono già vedere tutto in chiaro.
Da questa prospettiva, un agente non è semplicemente «un chatbot che clicca un po’». È piuttosto un nuovo dipendente programmabile all’interno dell’azienda. Legge email, vede documenti, apre sessioni browser, chiama API, conosce calendari, usa token, avvia workflow e può persino scrivere codice o ticket. Se quell’agente viene compromesso, delegato male o semplicemente dotato di troppi permessi, l’attaccante non è più fuori dalla porta. È già dentro il processo.
C’è poi il livello politico. Quando Apple ha dovuto ritirare nel Regno Unito una cifratura iCloud più forte a causa della pressione sui backdoor, quella non era soltanto una storia di privacy. Era un promemoria del fatto che le promesse di sicurezza dipendono sempre anche dai rapporti di potere. E quando Apple, contemporaneamente, si appoggia a Google Gemini per Siri, il quadro diventa ancora più chiaro: oggi la fiducia dipende da catene di dipendenze, non soltanto da un nome di prodotto.
La Geopolitica È Tornata A Essere Infrastruttura
Il punto più duro del momento è quanto direttamente gli eventi geopolitici stiano tornando a colpire la realtà tecnica. L’elio ne è un buon esempio.
Il 12 marzo 2026, Tom’s Hardware ha riferito che la produzione di elio nel complesso di Ras Laffan in Qatar era stata colpita dopo attacchi con droni iraniani. Secondo quel rapporto, il sito è andato offline il 2 marzo, rimuovendo temporaneamente dal mercato circa il 30 per cento dell’offerta globale di elio. Questo mostra quanto sottile sia diventato il filo tra guerra, chimica, produzione di semiconduttori e infrastruttura IA.
La versione breve è brutale:
attacco con droni -> carenza di elio -> pressione sulla produzione di chip -> meno margine per l’hardware IA -> più stress in un mondo del compute già surriscaldato
Quando gas di processo critici diventano scarsi, non stiamo parlando di una storia macro astratta. Stiamo parlando di colli di bottiglia molto reali in un mondo che ha bisogno di sempre più chip nello stesso momento. Non si tratta di ridurre tutta la storia a una macchina ASML che «ha bisogno di elio». Si tratta dell’intera catena: litografia, raffreddamento, ambienti di processo, fab, packaging, controlli alle esportazioni, elettricità e datacenter. L’IA sembra digitale, ma dipende da cose molto fisiche.
Questa è una delle ragioni più forti, per me, per smettere di trattare l’IA soltanto come una storia di app o di modelli. L’IA oggi è:
- politica energetica
- catena di fornitura
- produzione di chip
- capacità cloud
- politica estera
- strategia industriale
La Cina Sta Costruendo Sovranità, Non Solo Modelli
Molti in Occidente hanno letto il momento DeepSeek soprattutto come un evento di borsa e di media. Io credo che lo strato più importante sia più profondo.
Reuters ha riferito a fine febbraio 2026 che DeepSeek non aveva mostrato la sua prossima versione V4 ai produttori di chip statunitensi per l’ottimizzazione, ma l’aveva condivisa in anticipo con partner domestici come Huawei. Allo stesso tempo, continuano a emergere notizie secondo cui Huawei starebbe cercando seriamente di costruire uno stack domestico sotto il livello dei modelli attraverso nuovi sistemi Ascend e Atlas. Che tutte le promesse di performance si realizzino o meno è quasi secondario. La direzione è chiara: la Cina non vuole soltanto modelli. Vuole il proprio stack.
Ed è proprio questo a rendere così interessanti i prossimi anni. La vera battaglia non si gioca tra chatbot, ma tra blocchi infrastrutturali.
L’Europa Rischia Di Guardare Più Che Costruire
L’Europa continua ad avere buona ricerca, buone università, buona industria e una tradizione regolatoria ragionevole. Ma se devo essere sincero, oggi l’Europa assomiglia un po’ all’Apple dei continenti:
- forte nelle ambizioni
- forte in design, etica e regole
- più debole in modelli, chip e potere di piattaforma
La formula è volutamente un po’ tagliente, ma credo che la direzione sia reale. Mentre gli Stati Uniti spingono modelli, cloud, chip e capitale, e la Cina spinge sovranità e stack domestici, l’Europa rischia di passare il proprio tempo a commentare, regolamentare e poi consumare prodotti costruiti altrove. Dal punto di vista della sicurezza, questo non è irrilevante, perché la dipendenza resta sempre una questione di sicurezza.
Tra Hype E Paura C’è Quasi Sempre Un Interesse
Anche il panorama mediatico è ormai parte del sistema. Negli Stati Uniti l’IA viene spesso venduta con un tono quasi religioso sul futuro. Non è sorprendente. Molti dei maggiori beneficiari di questa ondata si trovano lì: fornitori di modelli, piattaforme cloud, designer di chip, venture capital, mercati pubblici, compratori della difesa e clienti enterprise.
In Europa il dibattito suona spesso diverso: più paura della perdita di lavoro, più preoccupazione regolatoria, più avvertimenti su dipendenza e perdita di velocità. Anche questo non è sorprendente, perché l’Europa ha meno upside e più dipendenza in molti strati infrastrutturali di base.
Penso che entrambi questi riflessi diventino pericolosi quando si semplificano troppo. L’hype ingenuo ignora danni, concentrazione di potere e rischi di sicurezza. La paura pura ignora strumenti, produttività e la possibilità di costruire finalmente sistemi per cui in passato non c’era mai abbastanza tempo. Per questo torno sempre a una via di mezzo più faticosa: restare interessati senza diventare ingenui, nominare i rischi senza bloccarsi e chiedersi, davanti a ogni grande titolo, chi sta raccontando questa storia e con quale interesse.
Quindi, Il Mondo È Rotto?
La mia risposta è no. Ma è in movimento brusco. Questa sensazione che tutto accada nello stesso momento genera sovraccarico in molte persone.
Stiamo vivendo tutto questo contemporaneamente:
- hype dell’IA
- vero progresso dei modelli
- capitale surriscaldato
- problemi di sicurezza
- geopolitica
- perdita di fiducia nei contenuti mediatici
- progressi nella robotica
- un pubblico che fatica sempre di più a separare sostanza e spettacolo
È tanto, soprattutto se nel frattempo bisogna anche gestire una vita normale, un lavoro, una famiglia, un’azienda o una responsabilità sull’infrastruttura. Eppure penso che sia pericoloso leggere questo periodo soltanto come una storia di collasso, perché questo nasconde il compito reale. La domanda non è come fermare il cambiamento. La domanda è questa:
- di quali sistemi voglio davvero fidarmi?
- quali dipendenze devo ridurre?
- di quali strumenti ho realmente bisogno?
- quali fondamenta di sicurezza devono diventare più dure?
- come resto capace di decidere in un mondo in cui velocità e inganno crescono insieme?
Cosa Devono Rafforzare Le Aziende Adesso
Se riduco tutto questo al lavoro pratico, la risposta diventa sorprendentemente poco glamour. Non si tratta di infilare cinque nuovi strumenti IA in ogni team sperando che il futuro compaia per magia. Si tratta di costruire alcune cose con molta più intenzione di prima.
- Non fate girare gli agenti IA sotto normali account utente. Date loro identità separate, scope stretti, token a vita breve e limiti chiari per email, deploy di codice, modifiche amministrative e pagamenti.
- Semplificate il paesaggio degli strumenti invece di aggiungere un nuovo SaaS ogni settimana. Ogni nuova app IA porta più sessioni, estensioni browser, plugin, segreti, log e dipendenza dal fornitore.
- Loggate bene gli agenti, non solo gli utenti. Contano le chiamate agli strumenti, gli accessi ai file, le approvazioni, le connessioni in uscita, le modifiche a ticket o codice e il passaggio da prompt ad azione.
- Costruite un playbook di verifica per i contenuti sintetici. Approvazioni di pagamento, istruzioni HR, richieste admin e comunicazioni in incidente dovrebbero passare da un secondo canale.
- Trattate patching ed exposure management molto più vicini al tempo reale, soprattutto per browser, identità, VPN, firewall, strumenti di collaborazione e servizi esposti a Internet.
- Esercitate il recovery come se un modello, un connettore o un fornitore potessero cadere domani. Questo significa percorsi di export, canali alternativi di comunicazione e un kill switch pulito per gli agenti.
- Mettete molto più sotto pressione i fornitori critici. Dove si trovano davvero dati, log, prompt, memoria, chiavi, opt-out di training e opzioni di forensic?
Tutto questo suona molto meno glamour di Mythos, Gemini, ChatGPT o Grok. Ma è proprio qui che si deciderà se un’azienda userà la prossima ondata come strumento oppure finirà schiacciata dalla propria complessità. Il mondo non sta semplicemente finendo. Sta diventando più duro, più denso e più veloce. Chi rafforza ora le fondamenta avrà ancora più avanti la libertà di beneficiare davvero dell’IA.
Alla prossima,
Joe
Fonti e approfondimenti
- OpenAI: Accelerating the next phase of AI
- Anthropic Newsroom
- Project Glasswing
- Fortune: Mythos leak
- Bloomberg: Claude Code leak
- Google Ironwood TPU
- DeepMind: Gemini Robotics
- xAI Colossus
- xAI joins SpaceX
- Tesla Lithium Refinery
- Bloomberg: Meredith Whittaker on AI agents
- Reuters: Apple and Google Gemini for Siri
- Reuters/TBS: DeepSeek and Huawei
- Tom’s Hardware: Qatar helium shutdown


