Hype de l'IA, guerres et failles de sécurité : le monde est-il cassé ou en pleine recomposition ?

Hype de l'IA, guerres et failles de sécurité : le monde est-il cassé ou en pleine recomposition ?

19 min read
Ai Security Personal

Il y a quelques semaines, dans un autre article , j’écrivais déjà que le monde change plus vite que la plupart des gens ne l’imaginent. Aujourd’hui, je veux formuler cette idée de manière plus nette.

Dans les échanges avec des clients et des équipes, une même question revient de plus en plus souvent : qu’est-ce qui relève d’un vrai progrès, et qu’est-ce qui n’est que du bruit avec un bon habillage marketing ? Si l’on suit l’actualité depuis le début de 2026, on peut facilement avoir l’impression que tout bascule en même temps. OpenAI, Google, Anthropic et xAI se livrent une course publique. Les robots humanoïdes quittent les démonstrations pour entrer dans les usines. Les guerres et les tensions géopolitiques touchent soudain les chaînes d’approvisionnement en puces et en gaz. En parallèle, de nouvelles failles apparaissent presque chaque jour, et chaque nouvel outil apporte non seulement plus de productivité, mais aussi plus de droits, plus de flux de données et plus de surface d’attaque.

Pour celles et ceux dont le métier consiste à bâtir une infrastructure sûre et à permettre aux collaborateurs de rester opérationnels dans un monde numérique plus incertain, cela ne ressemble pas à de simples nouvelles tech. Cela ressemble à une compression du temps. La question n’est donc plus seulement de savoir quel modèle benchmarke mieux. La vraie question est la suivante : le monde est-il réellement cassé, ou assistons-nous au début d’un basculement complet ?

Ma réponse, aujourd’hui, est simple : le monde ne s’est pas soudainement brisé. En revanche, il est en train d’être réorganisé avec une vitesse et une brutalité qui dépassent beaucoup de gens, mentalement, économiquement et du point de vue de la sécurité.

En bref :

  • Nous observons moins une fin du monde qu’une recomposition précipitée du pouvoir, des infrastructures et de la confiance.
  • La sécurité reste la couche de base, car l’IA sur des systèmes fragiles signifie surtout des erreurs plus rapides et des dégâts plus grands.
  • La vraie question n’est pas seulement de savoir quel modèle est devant, mais qui contrôle les puces, le calcul, les plateformes, les données et les chaînes d’approvisionnement.

Ce Qui S’Accélère Vraiment

Ce qui compte ici, ce n’est pas un seul lancement de modèle, mais l’interaction de cinq forces :

  • des masses de capitaux énormes
  • des ressources de calcul limitées
  • des jeux de puissance géopolitiques
  • l’attention médiatique comme levier stratégique
  • la réalité technique selon laquelle un logiciel n’est jamais vraiment terminé ni vraiment sûr

Quand ces cinq forces bougent en même temps, on obtient une impression d’accélération permanente. C’est exactement ce que montre 2026. OpenAI a bouclé un nouveau tour de financement massif le 31 mars 2026. Anthropic a annoncé sa Series G dès le 12 février 2026. xAI a levé de nouveaux fonds au début de janvier. Google, de son côté, n’a même pas besoin de mettre en scène un grand tour de table, parce qu’il peut financer sa poussée IA via la publicité, le cloud, le hardware et sa puissance de marché existante. Ce ne sont plus de simples actualités logicielles. Ce sont des signaux d’une lutte pour l’infrastructure.

C’est là que la différence entre hype et structure commence, à mes yeux. Le hype fait du bruit. La structure reste. Ce qui compte n’est donc pas seulement qui a la meilleure démonstration, mais qui contrôle en même temps les modèles, le calcul, la distribution, le hardware et la confiance.

Qui Joue Quel Jeu

Si l’on regarde les grands acteurs de l’IA avec un peu de recul, ils ne jouent pas tous la même partie. C’est précisément ce qui rend le marché intéressant et important du point de vue de la sécurité.

OpenAI

OpenAI occupe la distribution. Beaucoup de gens ne disent pas « j’utilise un LLM », mais simplement « j’utilise ChatGPT ». Avec l’idée d’une « unified AI superapp » et une couche produit de plus en plus dense composée de Codex, connecteurs, bibliothèques de fichiers, deep research et fonctions voisines, OpenAI essaie de passer du grand public au travail quotidien. Pour la sécurité, c’est important, car une fenêtre de chat devient vite un point de concentration pour les identités, les sessions, les fichiers, les plugins et les droits des agents.

Anthropic

Anthropic joue beaucoup plus sur la confiance entreprise, la proximité avec les développeurs et un récit centré sur la sécurité. Claude Code, Computer Use, Cowork et l’accent mis sur des modèles de travail plus contrôlables pour les entreprises font de Claude moins un produit de masse qu’un produit de confiance. À mes yeux, Anthropic vend plus que de la performance de modèle : l’entreprise vend l’idée que les organisations peuvent laisser Claude se rapprocher du code source, des workflows et des espaces de décision sensibles. J’ai développé le sujet Mythos et Project Glasswing plus en détail dans un article séparé .

Google

Google joue le jeu le plus large et probablement le plus endurant. Côté Gemini, on voit un véritable continent produit qui va de Workspace à Pixel jusqu’à DeepMind. Avec Google Vids, l’IA s’insère dans des interfaces de travail ordinaires au lieu d’être seulement montrée comme une démo spectaculaire. En parallèle, Google fait partie des rares acteurs qui contrôlent bien davantage leur propre destin côté calcul grâce à Ironwood, sa septième génération de TPU. C’est pourquoi je continue à penser que Google est l’acteur le plus sous-estimé de cette course.

xAI

xAI paraît plus discret, mais l’entreprise est loin d’être petite. Avec Colossus, Grok Business, Grok Enterprise et le lien désormais officiel avec SpaceX, xAI essaie lui aussi d’occuper sérieusement l’infrastructure et le marché entreprise.

Ce que je trouve particulièrement intéressant ici, ce n’est pas seulement le modèle, mais la thèse du datacenter qui se cache derrière. xAI décrit Colossus comme une sorte de gigafactory of compute : construit en 122 jours, puis doublé à 200 000 GPU en 92 jours supplémentaires, avec une feuille de route vers encore plus de capacité. Cela ressemble moins à un lancement logiciel classique qu’à une tentative de prendre très tôt le contrôle direct d’un goulet d’étranglement stratégique.

Comme observation de marché, cela me rappelle fortement un schéma déjà visible chez les entreprises de Musk. Tesla a développé son réseau Supercharger des années avant que beaucoup de concurrents comprennent vraiment la portée stratégique de cette couche d’infrastructure. Avec la raffinerie de lithium au Texas, Tesla est ensuite remonté encore plus loin dans une étape critique de la chaîne de valeur de la batterie. xAI semble viser quelque chose de comparable côté calcul : entraîner des modèles, mais aussi façonner très tôt l’infrastructure rare dont ces modèles dépendent. Quand la concurrence se rend compte de l’importance de cette couche, l’avantage ne réside souvent pas seulement dans la technologie, mais dans le temps déjà écoulé.

Cela ne rend pas automatiquement xAI meilleur. Mais cela rend l’entreprise plus flexible stratégiquement que beaucoup ne le pensent.

Apple

Dans ce tableau, Apple ressemble davantage à un symptôme qu’à un moteur. Le fait qu’Apple utilise Gemini de Google pour la future pile Siri montre très clairement qu’une puissance de plateforme énorme ne garantit pas une avance sur les modèles. Pour les utilisateurs comme pour les équipes sécurité, cela ne simplifie rien. Plus les promesses on-device, le discours private cloud compute et des noyaux de modèles externes se mélangent, moins il devient clair où finissent réellement les données, les contextes, les logs et les décisions.

Pourquoi Anthropic Revient Sans Cesse Dans Les Titres

Si l’on condense les quatre derniers mois autour d’Anthropic, on obtient un flux d’actualité inhabituellement dense : Claude Opus 4.6, Claude Sonnet 4.6, la Series G, l’acquisition de Vercept, de nouveaux partenariats, l’Anthropic Institute, 100 millions de dollars pour le Claude Partner Network, la fuite Mythos chez Fortune, la fuite Claude Code chez Bloomberg, les rumeurs d’IPO, puis Project Glasswing le 7 avril.

Cela ne prouve pas automatiquement une chorégraphie PR secrète. Mais cela montre à quel point Anthropic transforme sa visibilité en position de marché en 2026. Pour une entreprise qui vend en même temps de la confiance, de l’enterprise readiness et un horizon possible d’introduction en bourse, la visibilité n’est pas un effet secondaire. C’est une partie du jeu.

Les Robots Humanoïdes Ne Sont Plus Une Simple Note De Bas De Page

Pendant que des entreprises comme Anthropic, OpenAI et Google se battent sur les modèles, les gros titres et les workflows logiciels, les mêmes capacités se déplacent aussi dans le monde physique. C’est encore sous-estimé, parce que beaucoup associent toujours l’IA d’abord aux fenêtres de chat, aux générateurs d’images et aux assistants de code.

Google DeepMind présente désormais Gemini, Veo, Imagen, Lyria et Gemini Robotics côte à côte. En parallèle, Boston Dynamics et Google DeepMind ont annoncé en janvier 2026 un partenariat autour d’Atlas et de Gemini Robotics. C’est plus qu’un joli moment de salon tech. Cela montre que la logique des foundation models quitte peu à peu le navigateur pour entrer dans les systèmes physiques.

Nous ne sommes pas encore dans un monde où des robots humanoïdes se tiennent partout à côté de nous demain matin. Mais nous sommes clairement dans une phase où les usines testent, où la recherche et le hardware se rapprochent, et où la robotique ne se pense plus sans IA. Toute personne qui parle de l’avenir du travail en ne pensant qu’aux logiciels de bureau regarde donc trop petit.

La Sécurité Reste La Vraie Couche De Base

Ce qui m’occupe le plus dans tout ce débat, ce n’est pas seulement la course aux modèles, mais ce que tout cela signifie pour la sécurité. Un rapide détour par la pyramide de Maslow aide ici. La sécurité y apparaît très bas, généralement sur l’avant-dernier niveau. C’est exactement le point : la sécurité n’est pas une fonction de luxe qu’on ajoute plus tard. C’est une condition préalable pour que tout le reste au-dessus puisse fonctionner de manière stable. C’est vrai pour les humains, et c’est tout aussi vrai pour l’infrastructure numérique.

Dans mon quotidien, la sécurité n’a jamais voulu dire sécurité parfaite. Elle signifie plutôt ceci :

  • comprendre les risques
  • réduire la surface d’attaque
  • prévoir les modes de défaillance
  • limiter les dégâts
  • garder les gens opérationnels

On vise donc le plus haut niveau de sécurité possible tout en sachant que rien n’est jamais vraiment sûr. C’est justement ce qui rend 2026 si inconfortable. La vitesse de transformation augmente plus vite que notre capacité à suivre. Nous n’avons pas assez de bons développeurs, pas assez de bons profils sécurité, et certainement pas assez de capacité pour relire proprement la montagne de code qui grossit sans cesse et qui est désormais produite non seulement par des humains, mais aussi par des modèles. Internet n’a jamais été totalement sûr. Ce qui change, c’est la vitesse à laquelle l’insécurité se propage.

Internet Semble Plus Fragile Parce Que La Vitesse Des Exploits Monte

Je ne crois pas que 2026 soit soudain devenu moins sûr parce que les gens auraient oublié comment écrire du logiciel. Je pense plutôt que le mélange de davantage de logiciels, davantage d’automatisation, davantage de dépendances, davantage de supply chain et de meilleurs modèles rend visible à quel point tout cela a toujours été fragile.

Quand Anthropic remonte dans ses tests Mythos des bugs restés invisibles pendant 16 ou 27 ans, ce n’est pas un détail exotique. C’est un rappel que les systèmes numériques sont remplis de dette historique, d’hypothèses implicites et de couches anciennes que plus personne ne comprend vraiment. C’est pour cela qu’une vieille règle opérationnelle continue à compter pour moi :

Je préfère utiliser quelques bons outils plutôt qu’une multitude d’outils moyens.

Chaque outil supplémentaire apporte :

  • de nouveaux tokens
  • de nouveaux secrets
  • de nouvelles sessions navigateur
  • de nouvelles bibliothèques
  • de nouveaux plugins
  • de nouvelles chaînes de mise à jour
  • de nouvelles permissions

et donc de nouvelles façons pour les choses de mal tourner.

Dans un monde où les modèles lisent, combinent, priorisent et parfois exploitent plus vite qu’avant, la réduction du stack redevient importante. Non parce que le minimalisme sonne bien, mais parce que la complexité produit des coûts de sécurité très concrets.

Le Plus Grand Problème Est Désormais Un Problème De Vérité

Ce qui m’inquiète presque davantage que les vulnérabilités classiques, c’est le problème épistémique : qu’est-ce qui est encore réel ? Une image représentait au moins une forme de preuve relativement utile. Une vidéo encore davantage.

Aujourd’hui, nous vivons dans un monde où :

  • des images peuvent être générées synthétiquement en quelques minutes
  • des voix peuvent être clonées de manière crédible
  • des vidéos peuvent être falsifiées de façon convaincante
  • des milliers de sous-pages SEO peuvent être générées automatiquement
  • des espaces entiers d’opinion peuvent être remplis artificiellement

Pour la sécurité, c’est un basculement fondamental. La sécurité ne signifie plus seulement :

  • mon endpoint est-il propre ?
  • mon mot de passe est-il fort ?
  • mon réseau est-il segmenté ?

Elle signifie aussi :

  • puis-je encore faire confiance à la source ?
  • puis-je reconnaître une preuve manipulée ?
  • puis-je prendre des décisions à partir de signaux réels ?
  • quels canaux restent fiables pendant un incident ?

Ce n’est plus un problème académique. Si les entreprises s’appuient davantage sur des agents IA, sur la communication automatisée et sur des contenus synthétiques, le centre du problème passe de « protéger les systèmes » à « protéger les systèmes, les identités, les décisions et la perception du réel ».

La Confiance Devient Elle-Même Une Surface D’Attaque

Un autre point encore trop peu discuté est que la confiance dépasse désormais la cryptographie et les règles réseau propres. Elle est devenue une question de plateforme, de fournisseur, et dans une certaine mesure, d’État.

Meredith Whittaker, chez Signal, l’a très bien résumé dans Bloomberg en janvier 2026. Son idée était que les agents IA sont « pretty perilous » pour les applications sécurisées parce qu’ils ont besoin de permissions profondes, d’un accès large aux données et souvent d’une visibilité système complète sur les contenus pour faire leur travail. C’est précisément pour cela que le sujet est si important du point de vue sécurité. Même si le chiffrement reste mathématiquement solide, il perd de sa valeur pratique si le système d’exploitation, l’agent ou la plateforme autour voient déjà tout en clair.

Vu sous cet angle, un agent n’est pas simplement « un chatbot qui clique un peu ». C’est plutôt un nouvel employé programmable à l’intérieur de l’entreprise. Il lit les mails, voit les documents, ouvre des sessions navigateur, appelle des API, connaît les calendriers, utilise des tokens, lance des workflows et peut même écrire du code ou des tickets. Si cet agent est compromis, mal délégué ou simplement doté de trop de droits, l’attaquant n’est plus devant la porte. Il est déjà dans le processus.

Il y a ensuite la couche politique. Quand Apple a dû retirer un chiffrement iCloud plus fort au Royaume-Uni sous la pression autour des backdoors, ce n’était pas seulement une histoire de vie privée. C’était un rappel que les promesses de sécurité dépendent toujours aussi de rapports de force. Et lorsqu’Apple s’appuie en même temps sur Google Gemini pour Siri, l’image devient encore plus nette : la confiance dépend aujourd’hui de chaînes de dépendances, pas seulement d’un nom de produit.

La Géopolitique Est Redevenue De L’Infrastructure

Le point le plus brutal du moment, c’est à quel point les événements géopolitiques affectent directement la réalité technique. L’hélium en est un bon exemple.

Le 12 mars 2026, Tom’s Hardware a rapporté que la production d’hélium sur le complexe de Ras Laffan au Qatar avait été perturbée après des attaques de drones iraniens. Selon ce rapport, le site a cessé de fonctionner le 2 mars, retirant temporairement environ 30 pour cent de l’offre mondiale d’hélium. Cela montre à quel point le fil est devenu fin entre guerre, chimie, fabrication de semi-conducteurs et infrastructure IA.

La version courte est brutale :

attaque de drones -> pénurie d’hélium -> pression sur la production de puces -> moins de marge pour le matériel IA -> plus de tension dans un monde du calcul déjà surchauffé

Quand des gaz de procédé critiques se raréfient, on ne parle pas d’un sujet macro abstrait. On parle de goulets d’étranglement très réels dans un monde qui a besoin de toujours plus de puces. Il ne s’agit pas de réduire l’histoire à une machine ASML qui « a besoin d’hélium ». Il s’agit de toute la chaîne : lithographie, refroidissement, environnements de process, fabs, packaging, contrôles à l’export, électricité et datacenters. L’IA semble numérique, mais elle dépend de choses très physiques.

C’est l’une des meilleures raisons, selon moi, d’arrêter de traiter l’IA comme un simple sujet d’application ou de modèle. L’IA est désormais :

  • de la politique énergétique
  • de la supply chain
  • de la fabrication de puces
  • de la capacité cloud
  • de la politique étrangère
  • de la stratégie industrielle

La Chine Construit De La Souveraineté, Pas Seulement Des Modèles

Beaucoup de gens en Occident ont lu le moment DeepSeek surtout comme un événement boursier et médiatique. Je pense que la couche la plus importante est plus profonde.

Reuters a rapporté fin février 2026 que DeepSeek n’avait pas montré sa prochaine version V4 aux fabricants de puces américains pour optimisation, mais l’avait partagée en amont avec des partenaires nationaux tels que Huawei. En parallèle, les informations se multiplient selon lesquelles Huawei essaie sérieusement de construire un stack domestique sous la couche modèle via les systèmes Ascend et Atlas. Que toutes les promesses de performance soient confirmées ou non est presque secondaire. La direction est claire : la Chine ne veut pas seulement des modèles. Elle veut son propre stack.

C’est cela qui rend les prochaines années si intéressantes. La vraie bataille ne se joue pas entre chatbots, mais entre blocs d’infrastructure.

L’Europe Risque Davantage De Regarder Que De Construire

L’Europe conserve une recherche solide, de bonnes universités, une industrie sérieuse et une tradition réglementaire raisonnable. Mais si je suis honnête, l’Europe ressemble en ce moment un peu à l’Apple des continents :

  • forte dans l’ambition
  • forte dans le design, l’éthique et les règles
  • plus faible sur les modèles, les puces et la puissance de plateforme

La formule est volontairement un peu tranchée, mais je pense que la tendance est réelle. Pendant que les États-Unis poussent les modèles, le cloud, les puces et le capital, et que la Chine pousse la souveraineté et les stacks domestiques, l’Europe risque de passer son temps à commenter, réguler, puis consommer des produits conçus ailleurs. Du point de vue sécurité, ce n’est pas anodin, parce que la dépendance reste toujours un sujet de sécurité.

Entre Le Hype Et La Peur, Il Y A Souvent Un Intérêt

Le paysage médiatique lui-même fait désormais partie du système. Aux États-Unis, l’IA est souvent vendue avec un ton quasi religieux sur l’avenir. Ce n’est pas étonnant. Beaucoup des plus grands bénéficiaires de cette vague s’y trouvent : fournisseurs de modèles, plateformes cloud, concepteurs de puces, capital-risque, marchés publics, acheteurs de défense et clients enterprise.

En Europe, le débat sonne souvent autrement : plus de peur de la perte d’emploi, plus d’inquiétude réglementaire, plus de mises en garde sur la dépendance et la perte de vitesse. Ce n’est pas surprenant non plus, parce que l’Europe a moins d’upside et plus de dépendances dans beaucoup de couches de plateforme.

Je pense que ces deux réflexes deviennent dangereux lorsqu’ils se simplifient trop. Le hype naïf ignore les dégâts, la concentration du pouvoir et les risques de sécurité. La peur pure ignore les outils, la productivité et la possibilité de construire enfin des systèmes auxquels personne n’avait eu le temps de s’attaquer correctement. C’est pour cela que je reviens toujours à cette voie du milieu, plus exigeante : rester curieux sans devenir naïf, nommer les risques sans se figer, et se demander à chaque gros titre qui raconte cette histoire et avec quel intérêt.

Alors, Le Monde Est-Il Cassé ?

Ma réponse est non. Mais il est en mouvement brutal. Cette impression de tout voir arriver en même temps crée chez beaucoup une forme de surcharge.

Nous vivons tout cela simultanément :

  • le hype IA
  • de vrais progrès de modèles
  • un capital en surchauffe
  • des problèmes de sécurité
  • la géopolitique
  • une baisse de confiance dans les contenus médiatiques
  • des avancées en robotique
  • un public qui peine de plus en plus à séparer la substance du spectacle

C’est beaucoup, surtout lorsqu’on essaie en même temps de gérer une vie normale, un travail, une famille, une entreprise ou une responsabilité sur une infrastructure. Pourtant, je pense qu’il est dangereux de ne lire cette période qu’à travers le récit de l’effondrement, parce que cela masque la vraie tâche. La question n’est pas comment arrêter le changement. La question est plutôt :

  • À quels systèmes ai-je vraiment envie de faire confiance ?
  • Quelles dépendances dois-je réduire ?
  • Quels outils me sont réellement nécessaires ?
  • Quelles bases de sécurité doivent devenir plus dures ?
  • Comment rester capable de décider dans un monde où vitesse et tromperie progressent ensemble ?

Ce Que Les Entreprises Doivent Renforcer Maintenant

Si je ramène tout cela au travail pratique, la réponse devient étonnamment peu glamour. Il ne s’agit pas de jeter cinq nouveaux outils IA dans chaque équipe en espérant que l’avenir apparaisse par magie. Il s’agit de construire quelques éléments avec beaucoup plus d’intention qu’avant.

  • Ne faites pas tourner les agents IA sous des comptes utilisateurs ordinaires. Donnez-leur des identités séparées, des scopes serrés, des tokens courts et des limites claires pour les mails, les déploiements de code, les changements admin et les paiements.
  • Simplifiez les paysages d’outils au lieu d’ajouter un nouveau SaaS chaque semaine. Chaque nouvelle application IA apporte plus de sessions, d’extensions navigateur, de plugins, de secrets, de logs et de dépendance fournisseur.
  • Journalisez correctement les agents, pas seulement les utilisateurs. Ce qui compte, ce sont les appels d’outils, les accès aux fichiers, les validations, les connexions sortantes, les changements dans les tickets ou le code, et le passage du prompt à l’action.
  • Préparez un playbook de vérification pour les contenus synthétiques. Les validations de paiement, consignes RH, demandes admin et messages de crise doivent passer par un second canal.
  • Traitez le patching et la gestion d’exposition beaucoup plus près du temps réel, surtout pour les navigateurs, l’identité, les VPN, les firewalls, les outils de collaboration et les services exposés à Internet.
  • Entraînez la récupération comme si un modèle, un connecteur ou un fournisseur pouvait tomber demain. Cela implique des chemins d’export, des canaux de communication de secours et un kill switch propre pour les agents.
  • Interrogez beaucoup plus durement les fournisseurs critiques. Où se trouvent réellement les données, les logs, les prompts, la mémoire, les clés, les opt-outs d’entraînement et les options de forensic ?

Cela sonne beaucoup moins glamour que Mythos, Gemini, ChatGPT ou Grok. Mais c’est exactement là que se décidera si une entreprise utilisera la prochaine vague comme un outil ou si elle sera écrasée par sa propre complexité. Le monde n’est pas simplement en train de s’effondrer. Il devient plus dur, plus dense et plus rapide. Celles et ceux qui renforcent les fondations maintenant garderont encore plus tard la liberté de vraiment bénéficier de l’IA.

À la prochaine,
Joe

Sources et liens d’intérêt

© 2026 trueNetLab