
AIブーム、戦争、そしてセキュリティ欠陥: 世界は壊れたのか、それとも再編成の途中なのか
目次
数週間前、 別の記事 で、世界は多くの人が思っているよりもはるかに速く変わっていると書きました。今日はその考えを、もう少し鋭く言葉にしたいと思います。
顧客やチームと話していると、同じ問いが何度も戻ってきます。これは本当の進歩なのか、それともマーケティングのうまいノイズなのか。2026年の初めからニュースを追っていると、あらゆるものが同時に動いているように感じやすくなります。OpenAI、Google、Anthropic、xAIが公のレースを続けています。ヒューマノイドロボットはデモから工場へ移り始めています。戦争や地政学的な圧力は、チップやガスのサプライチェーンにまで影響を与えています。同時に、新しい脆弱性はほぼ毎日のように現れ、あらゆる新しいツールは生産性だけでなく、権限、データフロー、攻撃面も増やしています。
安全なインフラを作り、不安定さを増すデジタル世界で人が働き続けられる状態を保つことを仕事にしている人にとって、これは普通のテックニュースには見えません。時間が圧縮されているように感じます。もう問題は、どのモデルのベンチマークが高いかだけではありません。本当の問いはこうです。世界は本当に壊れたのか。それとも、私たちは大規模な再編の始まりを見ているのか。
今の私の答えは単純です。世界は突然壊れたわけではありません。しかし、精神的にも、経済的にも、そしてセキュリティの面でも、多くの人が追いつけない速度と強さで再配置されています。
要するに:
- 今起きているのは終末というより、権力、インフラ、信頼の慌ただしい再構築です。
- セキュリティは依然として土台です。安全でないシステムの上にAIを置くことは、多くの場合、より速い失敗とより大きな損害を意味します。
- 問題はどのモデルが先行しているかだけではなく、チップ、計算資源、プラットフォーム、データ、サプライチェーンを誰が握っているかです。
本当に加速しているものは何か
ここで重要なのは単一のモデルの発表ではなく、五つの力の同時進行です。
- 巨大な資本
- 限られた計算資源
- 地政学的なパワーゲーム
- 戦略的レバーとしてのメディア注目
- ソフトウェアは決して完全には終わらず、完全には安全でもないという技術的現実
これらが同時に動くと、常時加速しているような感覚が生まれます。それがまさに2026年です。OpenAIは2026年3月31日にさらに大規模な資金調達を完了しました。Anthropicは2026年2月12日にSeries Gを発表しました。xAIも1月初めに新たな資本を集めました。Googleは、広告、クラウド、ハードウェア、既存の市場支配力を通じてAI投資を賄えるため、派手な資金調達見出しすら必要としません。これはもはや普通のソフトウェアニュースではありません。インフラを巡る争いのシグナルです。
ここから私にとって、ブームと構造の違いが始まります。ブームは騒がしい。構造は残る。重要なのは、誰が最も派手なデモを見せるかだけではなく、モデル、計算資源、流通、ハードウェア、信頼を同時に握っているかです。
誰がどんなゲームをしているのか
主要なAIプレイヤーを冷静に見ると、全員が同じゲームをしているわけではありません。そして、その違いこそがこの市場をセキュリティの観点から面白くしています。
OpenAI
OpenAIは流通を握っています。多くの人は「LLMを使っている」とは言わず、「ChatGPTを使っている」と言います。「unified AI superapp」という考え方と、Codex、コネクタ、ファイルライブラリ、deep researchなどからなる、ますます密なプロダクト層を通じて、OpenAIはコンシューマー側から日常業務の中へ入り込もうとしています。セキュリティの観点では、これは重要です。なぜなら、チャット画面はすぐにアイデンティティ、セッション、ファイル、プラグイン、エージェント権限の集中点になり得るからです。
Anthropic
Anthropicは、エンタープライズの信頼、開発者との距離の近さ、そしてセキュリティの語りを通じて強く戦っています。Claude Code、Computer Use、Cowork、そして企業向けによりコントロールしやすい作業モデルへの注力は、Claudeをマス向け製品というより、信頼ベースの製品にしています。私の見方では、Anthropicはモデル性能だけを売っているのではありません。企業がClaudeをソースコード、ワークフロー、機微な意思決定空間の近くまで入れてもよいという物語を売っています。MythosとProject Glasswingについては、 別の記事 で詳しく整理しています。
Googleは最も広く、おそらく最もしぶといゲームをしています。Geminiの側を見ると、WorkspaceからPixel、そしてDeepMindまで広がるプロダクト大陸が見えてきます。Google Vidsによって、AIは派手なデモとしてではなく、普通の業務画面の中に入り始めています。同時にGoogleは、第7世代TPUであるIronwoodによって、自社の計算資源の運命をかなり強くコントロールしている数少ないプレイヤーでもあります。だからこそ私は、このレースでGoogleが最も過小評価されている存在だと考えています。
xAI
xAIは比較的静かに見えますが、小さくはありません。Colossus、Grok Business、Grok Enterprise、そして公式化されたSpaceXとの結びつきを通じて、xAIもまたインフラとビジネスの層を本気で押さえようとしています。
私がここで特に興味深いと思うのは、モデルそのものだけでなく、その背後にあるデータセンターの発想です。xAIはColossusを一種のgigafactory of computeと呼んでいます。122日で構築され、さらに92日で20万GPUまで拡張され、今後さらに大きな容量へ向かうロードマップまである。これはクラシックなソフトウェアの発表というより、戦略的なボトルネックを極めて早い段階で直接支配下に置こうとする試みに見えます。
市場観測として見ると、これはMusk系企業で何度も見てきたパターンを思い出させます。Teslaは、多くの競合がその戦略的重要性を本気で理解する前からSuperchargerネットワークを築いていました。さらにTexasのリチウム精製所によって、Teslaはバッテリー価値連鎖の重要な上流工程へも入り込みました。xAIは計算資源の側面で似たことをしようとしているように見えます。モデルを訓練するだけでなく、そのモデルが依存する希少なインフラそのものを早い段階で形作ろうとしているのです。競争相手がその層の重要性を理解したとき、優位性は技術だけでなく、すでに過ぎた時間にもあります。
それでxAIが自動的に優れているわけではありません。しかし、今多くの人が考えている以上に、戦略的な柔軟性を持っているとは言えます。
Apple
この文脈でAppleは、推進役というより症状のように見えます。Appleが新しいSiriスタックでGoogleのGeminiを使うという事実は、巨大なプラットフォーム力があってもモデルの優位を保証しないことを非常によく示しています。ユーザーやセキュリティチームにとって、これで物事が単純になるわけではありません。on-deviceの約束、private cloud computeの説明、外部モデルコアが混ざれば混ざるほど、データ、文脈、ログ、判断が実際にどこへ行くのかは分かりにくくなります。
なぜAnthropicは見出しに出続けるのか
Anthropicの周辺にある直近4か月を圧縮すると、異常に密度の高いニュースの流れが見えてきます。Claude Opus 4.6、Claude Sonnet 4.6、Series G、Verceptの買収、新しい提携、Anthropic Institute、Claude Partner Networkのための1億ドル、FortuneによるMythos流出、BloombergによるClaude Code流出、IPO観測、そして4月7日のProject Glasswingです。
これは自動的に秘密のPR演出を証明するものではありません。しかし、Anthropicが2026年に可視性を市場ポジションへどれほど一貫して変えているかはよく分かります。信頼、企業向け適性、そして将来のIPO可能性を同時に売る企業にとって、可視性は副作用ではありません。ゲームの一部です。
ヒューマノイドロボットはもはや脚注ではない
Anthropic、OpenAI、Googleのような企業がモデル、見出し、ソフトウェアワークフローで競っている一方で、同じ能力は物理世界にも移っています。にもかかわらず、これはまだ過小評価されています。多くの人にとってAIは今でもチャット画面、画像生成、コーディング支援の延長としてしか見えていないからです。
Google DeepMindはすでにGemini、Veo、Imagen、Lyria、Gemini Roboticsを並べて見せています。同時にBoston DynamicsとGoogle DeepMindは、2026年1月にAtlasとGemini Roboticsを巡る提携を発表しました。これは単なる印象的な展示会の瞬間ではありません。foundation modelsのロジックがブラウザを離れ、物理システムへ入っていくことを示しています。
もちろん、明日の朝どこにでもヒューマノイドロボットが立っている世界ではまだありません。しかし、工場が試し始め、研究とハードウェアが近づき、ロボティクスがAI抜きでは語れなくなっている段階には、すでに入っています。仕事の未来を語りながら、オフィスソフトだけを思い浮かべる人は、あまりにも狭く見ています。
セキュリティは依然として本当の基礎である
この議論全体で私が最も強く意識するのは、モデル競争そのものだけでなく、これがセキュリティにとって何を意味するかです。ここではMaslowのピラミッドを見ると分かりやすい。セキュリティはそこでもかなり低い位置、通常は下から二番目にあります。そこがポイントです。セキュリティは後から足す贅沢機能ではありません。その上にあるすべてが安定して機能するための前提条件です。これは人間にも、デジタルインフラにも当てはまります。
私の日々の仕事で、セキュリティが完璧な安全を意味したことは一度もありません。むしろ、こういう意味です。
- リスクを理解する
- 攻撃面を減らす
- 失敗モードを想定する
- 被害を限定する
- 人が働き続けられる状態を保つ
私たちは可能な限り高いセキュリティを目指しますが、同時に何も完全には安全でないことも知っています。だからこそ2026年はこんなにも居心地が悪い。変化の速度が、それに追いつく私たちの能力よりも速く上がっているからです。十分に強い開発者は足りず、十分に強いセキュリティ人材も足りず、人間だけでなくモデルも生み出すようになった膨大なコードの山を丁寧に見直すだけの余力もありません。インターネットはもともと完全に安全だったことはありません。新しいのは、不安全さがいまどれほど速くスケールするかです。
インターネットがより危うく感じるのは、exploitの速度が上がっているからだ
私は、2026年が突然危険になったのは人間がソフトウェアの書き方を忘れたからだとは思っていません。むしろ、ソフトウェアの増加、自動化の増加、依存関係の増加、サプライチェーンの複雑化、そしてモデルの高度化が、これまでもずっと脆かった構造を可視化しているのだと思っています。
AnthropicがMythos testingの中で、16年や27年もシステムの中に潜んでいたバグを掘り出すとき、それは奇妙な余談ではありません。デジタルシステムが歴史的負債、暗黙の前提、そしてほとんど誰も本当には理解していない古い層で満ちていることを思い出させる出来事です。だからこそ、私にとっては一つの古い運用ルールが今でも大切です。
平凡なツールをたくさん使うより、本当に良いツールを少数使うほうがいい。
追加のツール一つひとつが、次のものを持ち込みます。
- 新しいトークン
- 新しい秘密情報
- 新しいブラウザセッション
- 新しいライブラリ
- 新しいプラグイン
- 新しい更新チェーン
- 新しい権限
そしてそれと一緒に、壊れ方も増えます。
モデルがこれまで以上に速く読み、組み合わせ、優先順位を付け、ときにはexploitできる世界では、stack minimizationが再び重要になります。ミニマリズムが美しく聞こえるからではなく、複雑さが非常に現実的なセキュリティコストを生むからです。
いま最も大きいのは真実の問題である
従来の脆弱性以上に私を悩ませているのは、認識論的な問題です。何がまだ本物なのか。以前は画像が少なくともある程度の証拠にはなり得ました。動画ならなおさらです。
今日の世界では、
- 画像は数分で合成できる
- 音声は説得力ある形でクローンできる
- 動画は非常にそれらしく偽造できる
- 何千ものSEO下位ページを自動生成できる
- 意見空間そのものを人工的に埋められる
セキュリティにとって、これは根本的な変化です。セキュリティはもはや次の意味だけではありません。
- endpointはきれいか
- passwordは強いか
- networkは分離されているか
それは同時に、次の意味も持ちます。
- その情報源をまだ信じられるか
- 改ざんされた証拠を見抜けるか
- 本物のシグナルをもとに意思決定できるか
- incident時にどのチャネルがまだ信頼できるか
これはもはや学術的な問題ではありません。企業がAI agents、自動化されたコミュニケーション、synthetic contentにますます依存するなら、問題の中心は「システムを守る」から「システム、アイデンティティ、判断、そして現実認識を守る」へと移ります。
信頼そのものが攻撃面になっている
もう一つ、まだ十分に議論されていないのは、信頼がいまや暗号や整ったネットワークルール以上の問題になっていることです。それはプラットフォームの問題であり、ベンダーの問題であり、ある程度は国家の問題でもあります。
SignalのMeredith Whittakerは2026年1月のBloombergでこれを非常によく表現していました。彼女の要点は、AI agentsはsecure appにとって「pretty perilous」だということです。なぜなら仕事をこなすために深い権限、広いデータアクセス、そしてしばしばシステム全体にわたる可視性を必要とするからです。セキュリティの観点でこの話が重いのはそこです。暗号が数学的に堅牢なままであっても、周囲のOSやagentやplatformがすでに平文を見られるなら、現実世界での価値は下がります。
この観点から見ると、agentは「少しクリックするchatbot」ではありません。むしろ企業の中にいる新しいprogrammable employeeです。メールを読み、文書を見て、ブラウザセッションを開き、APIを呼び、カレンダーを把握し、トークンを使い、workflowを起こし、さらにはコードやticketを書くこともあります。こうしたagentが侵害されたり、誤って委任されたり、単に権限を持ちすぎたりしたとき、攻撃者はもうドアの外にはいません。すでにプロセスの中にいます。
そして政治的な層もあります。Appleが英国で、backdoorをめぐる圧力の結果としてより強いiCloud暗号化を引き下げざるを得なかったとき、それは単なるプライバシーの話ではありませんでした。セキュリティの約束が常に力関係にも依存していることを思い出させる出来事でした。そしてAppleが同時にSiriのためにGoogle Geminiへ依存している今、信頼は単一の製品名ではなく、依存関係の連鎖に立脚していることがさらに明確になります。
地政学は再びインフラそのものになった
いま最も厳しいのは、地政学的な出来事が再びどれほど直接的に技術現実へ作用しているかです。ヘリウムはその良い例です。
2026年3月12日、Tom’s Hardwareは、カタールのRas Laffan complexにおけるhelium productionがイランのdrone attack後に影響を受けたと報じました。その報告によれば、施設は3月2日にofflineとなり、一時的に世界のhelium supplyの約30パーセントが市場から消えました。これは戦争、化学、半導体製造、AIインフラの間の糸がどれほど細くなっているかを示しています。
短く言えば、こうです。
drone strike -> helium shortage -> chip productionへの圧力 -> AI hardwareの余裕が減る -> すでに過熱したcompute worldにさらにストレス
重要なプロセスガスが不足するとき、私たちは抽象的なマクロストーリーを語っているのではありません。私たちは、世界が同時により多くのチップを必要としている現実のボトルネックを語っています。これはASML machine一台が「heliumを必要とする」という話に還元することではありません。lithography、cooling、process environment、fabs、packaging、export control、electricity、datacentersという全連鎖の話です。AIはデジタルに見えて、非常に物理的なものに依存しています。
だからこそ、私はAIを単なるapp storyやmodel storyとして扱うのをやめるべきだと考えています。AIは今や次のものです。
- energy policy
- supply chain
- chip manufacturing
- cloud capacity
- foreign policy
- industrial strategy
中国はモデルだけでなく主権を作っている
西側の多くの人は、DeepSeek momentを主に市場とメディアの出来事として読みました。私は、もっと重要な層はその下にあると思っています。
Reutersは2026年2月末、DeepSeekが次期V4 modelをoptimizationのために米国のchipmakerへ見せず、Huaweiのような国内パートナーへ先に共有したと伝えました。同時に、HuaweiがAscendやAtlasなどの新システムを通じて、model layerの下に国内stackを本気で築こうとしているという報告も増えています。最終的にすべてのperformance claimがそのまま立証されるかどうかは、ほぼ副次的です。方向は明確です。中国はモデルだけを欲しているのではありません。自前のstackを欲しています。
だからこそ、これからの数年は非常に興味深い。真の戦いはchatbot同士ではなく、infrastructure bloc同士の間で進んでいます。
ヨーロッパは作るより見る側に回るリスクがある
ヨーロッパには今も優れた研究、優れた大学、優れた産業、そして比較的健全な規制文化があります。しかし正直に言えば、今のヨーロッパは少しだけ「大陸版Apple」のように見えます。
- ambitionには強い
- design、ethics、rulesには強い
- models、chips、platform powerには弱い
少し尖った言い方ですが、方向性としては現実的だと思います。米国がmodels、cloud、chips、capitalを押し進め、中国がsovereigntyとdomestic stacksを押し進める一方で、ヨーロッパはコメントし、規制し、そして結局は他の場所で作られたものを消費する側に回る危険があります。セキュリティの観点から見れば、これは些細な話ではありません。依存は常にセキュリティ問題でもあるからです。
ブームと恐怖の間には、たいてい何らかの利害がある
メディア環境そのものが、今やシステムの一部です。米国ではAIはしばしば未来に対するほとんど宗教的なトーンで売られます。これは驚くことではありません。この波の大きな利益受益者の多くがそこにいるからです。model vendor、cloud platform、chip designer、venture capital、public market、defence buyer、enterprise customerです。
ヨーロッパでは議論の響きがしばしば違います。雇用喪失への恐れ、規制への不安、依存とスピード喪失への警告がより強い。これも不思議ではありません。多くの基盤プラットフォーム層で、ヨーロッパはupsideが小さくdependencyが大きいからです。
私は、この二つの反応はいずれも単純化されすぎると危険になると考えています。naiveなhypeは被害、権力集中、セキュリティリスクを見落とします。pureなfearはツール、生産性、そして今まで十分な時間をもらえなかったシステムをようやく構築する機会を見落とします。だから私はいつも、より難しいmiddle pathへ戻ります。関心を持ち続けながらnaiveにはならず、リスクを挙げながら凍りつかず、大きなheadlineのたびに「この物語を語っているのは誰で、どんな利害があるのか」と自分に問うことです。
では、世界は壊れているのか
私の答えはノーです。しかし世界は激しく動いています。すべてが同時に起きているという感覚は、多くの人にとってoverloadになっています。
私たちは今、次のすべてを同時に経験しています。
- AIブーム
- 現実のモデル進歩
- 過熱した資本
- セキュリティ問題
- 地政学
- メディアコンテンツへの信頼低下
- ロボティクスの前進
- substanceとshowを見分けるのがますます難しくなっている社会
これは非常に多い。とくに同時に普通の生活、仕事、家族、会社、あるいはインフラ責任まで抱えているならなおさらです。それでも、この時期を崩壊の物語だけとして読むのは危険だと思います。なぜなら、本当にやるべきことが見えなくなるからです。問いは変化をどう止めるかではありません。問いは次の通りです。
- 私はどのシステムを本当に信頼したいのか
- どの依存関係を減らすべきか
- 本当に必要なツールは何か
- どのセキュリティ基盤をより硬くすべきか
- 速度と欺瞞が同時に増す世界で、どう意思決定能力を保つか
企業が今すぐ硬くすべきもの
これを実務に落とすと、答えは驚くほど地味になります。各チームにAIツールを5つずつ放り込んで、未来が魔法のように現れるのを待つ話ではありません。以前よりもずっと意図的に、いくつかのものを作る話です。
- AI agentsを普通のuser accountの下で動かさないこと。別のidentity、狭いscope、短寿命token、そしてmail、code deployment、admin change、paymentに対する明確なapproval boundaryを持たせること。
- 毎週新しいSaaSを足すのではなく、tool landscapeを簡素化すること。新しいAI appはsession、browser extension、plugin、secret、log、vendor dependencyを増やします。
- userだけでなくagentも適切にlogすること。重要なのはtool call、file access、approval、outgoing connection、ticketやcodeへの変更、そしてpromptからactionへの移行です。
- synthetic content用のverification playbookを作ること。payment approval、HR instruction、admin request、incident communicationは第二チャネルで確認されるべきです。
- patchingとexposure managementを、よりreal timeに近いものとして扱うこと。とくにbrowser、identity、VPN、firewall、collaboration tool、internet-facing serviceに対して。
- model、connector、vendorが明日落ちてもおかしくない前提でrecoveryを練習すること。export path、fallback communication channel、agent向けの明確なkill switchが必要です。
- critical supplierに対して、もっと厳しく問いを向けること。data、log、prompt、memory、key、training opt-out、forensic optionは実際どこにあるのか。
これはMythos、Gemini、ChatGPT、Grokほど華やかには聞こえません。しかし、企業が次の波をツールとして使えるのか、それとも自らの複雑さの下に押し潰されるのかは、まさにここで決まります。世界は単に終わっていません。より硬く、より密で、より速くなっています。今基盤を強化した人だけが、後になってもAIの恩恵を本当に受ける自由を持ち続けられます。
それでは、また次回。
Joe
出典と参考文献
- OpenAI: Accelerating the next phase of AI
- Anthropic Newsroom
- Project Glasswing
- Fortune: Mythos leak
- Bloomberg: Claude Code leak
- Google Ironwood TPU
- DeepMind: Gemini Robotics
- xAI Colossus
- xAI joins SpaceX
- Tesla Lithium Refinery
- Bloomberg: Meredith Whittaker on AI agents
- Reuters: Apple and Google Gemini for Siri
- Reuters/TBS: DeepSeek and Huawei
- Tom’s Hardware: Qatar helium shutdown


