
Хайп вокруг ИИ, войны и уязвимости безопасности: мир сломан или просто перестраивается?
Содержание
Несколько недель назад в другом материале я уже писал, что мир меняется быстрее, чем думает большинство людей. Сегодня я хочу сформулировать эту мысль еще жестче.
В разговорах с клиентами и командами снова и снова возвращается один и тот же вопрос: что из всего этого является реальным прогрессом, а что лишь шумом с хорошим маркетингом? Если следить за новостями с начала 2026 года, очень легко почувствовать, что все сдвигается одновременно. OpenAI, Google, Anthropic и xAI соревнуются публично. Гуманоидные роботы переходят из демо в цеха. Войны и геополитическое давление внезапно бьют по цепочкам поставок чипов и газов. Одновременно почти каждый день появляются новые уязвимости, а каждый новый инструмент приносит не только рост продуктивности, но и больше прав, больше потоков данных и большую поверхность атаки.
Для тех, чья работа состоит в построении защищенной инфраструктуры и в том, чтобы люди оставались работоспособными в более неопределенном цифровом мире, все это не ощущается как обычные технологические новости. Это ощущается как сжатие времени. Вопрос теперь уже не только в том, какая модель лучше смотрится в бенчмарках. Настоящий вопрос звучит так: мир действительно сломан или мы наблюдаем начало большой перестройки?
Мой ответ сейчас прост: мир не сломался внезапно. Но его перекраивают с такой скоростью и жесткостью, которые для многих оказываются перегрузкой и ментально, и экономически, и с точки зрения безопасности.
Коротко:
- То, что мы видим, больше похоже не на конец света, а на спешную перестройку власти, инфраструктуры и доверия.
- Безопасность остается базовым слоем, потому что ИИ на неустойчивых системах означает прежде всего более быстрые ошибки и более крупный ущерб.
- Ключевой вопрос не только в том, какая модель лидирует, а в том, кто контролирует чипы, вычисления, платформы, данные и цепочки поставок.
Что На Самом Деле Ускоряется
Здесь важен не один запуск модели, а взаимодействие пяти сил:
- огромные объемы капитала
- дефицит вычислительных ресурсов
- геополитические игры власти
- внимание медиа как стратегический рычаг
- техническая реальность, в которой ПО никогда не бывает полностью завершенным и полностью безопасным
Когда все эти пять факторов движутся одновременно, появляется ощущение постоянного ускорения. Именно так и выглядит 2026 год. OpenAI закрыла еще один гигантский раунд финансирования 31 марта 2026 года. Anthropic объявила о своей Series G уже 12 февраля 2026 года. xAI привлекла новый капитал в начале января. Google, в свою очередь, даже не нужен драматичный новостной цикл вокруг раундов финансирования, потому что компания может оплачивать свою ИИ-гонку через рекламу, облако, железо и уже существующую рыночную власть. Это больше не обычные новости о софте. Это сигналы борьбы за инфраструктуру.
Именно здесь, на мой взгляд, начинается разница между хайпом и структурой. Хайп шумит. Структура остается. Важно не только то, у кого лучшая демо-версия, а то, кто одновременно контролирует модели, вычисления, дистрибуцию, железо и доверие.
Кто Ведет Какую Игру
Если смотреть на крупных игроков ИИ без лишних эмоций, видно, что они играют в разные игры. И именно это делает рынок настолько интересным и важным с точки зрения безопасности.
OpenAI
OpenAI контролирует дистрибуцию. Многие люди не говорят «я использую LLM», а просто говорят «я пользуюсь ChatGPT». С идеей «unified AI superapp» и все более плотным продуктовым слоем из Codex, коннекторов, файловых библиотек, deep research и связанных функций OpenAI пытается войти из consumer-мира прямо в повседневную работу. С точки зрения безопасности это важно, потому что окно чата очень быстро становится точкой концентрации для идентичностей, сессий, файлов, плагинов и прав агентов.
Anthropic
Anthropic гораздо сильнее играет через enterprise-доверие, близость к разработчикам и нарратив о безопасности. Claude Code, Computer Use, Cowork и фокус на более контролируемых рабочих моделях для компаний делают Claude менее массовым продуктом и больше продуктом доверия. На мой взгляд, Anthropic продает не только производительность модели. Компания продает идею, что организации могут подпускать Claude ближе к исходному коду, рабочим процессам и чувствительным зонам принятия решений. Mythos и Project Glasswing я уже разобрал подробнее в отдельном материале .
Google играет в самую широкую и, вероятно, самую выносливую игру. На стороне Gemini уже виден целый продуктовый континент от Workspace до Pixel и DeepMind. С Google Vids ИИ встраивается в обычные рабочие интерфейсы, а не показывается только как яркая демонстрация. Одновременно Google входит в число немногих игроков, которые гораздо сильнее контролируют собственную вычислительную судьбу благодаря Ironwood, своему седьмому поколению TPU. Именно поэтому я продолжаю считать Google самым недооцененным участником этой гонки.
xAI
xAI выглядит тише, но это не маленькая компания. С Colossus, Grok Business, Grok Enterprise и теперь уже официальной связкой со SpaceX xAI тоже пытается всерьез занять инфраструктурный и бизнес-слой.
Меня здесь особенно интересует не только сама модель, но и датацентровый тезис за ней. xAI описывает Colossus как своего рода gigafactory of compute: построено за 122 дня, затем увеличено до 200 000 GPU еще за 92 дня, с дорожной картой на дальнейший рост емкости. Это выглядит меньше как классический запуск софта и больше как попытка очень рано взять под прямой контроль стратегическое узкое место.
Как рыночное наблюдение это сильно напоминает мне паттерн, который уже не раз был заметен в компаниях Маска. Tesla строила сеть Supercharger годами, прежде чем многие конкуренты по-настоящему поняли стратегическую ценность этого инфраструктурного слоя. С литиевым перерабатывающим заводом в Техасе Tesla затем продвинулась еще глубже в критически важный upstream-этап цепочки стоимости батарей. xAI, похоже, пытается сделать нечто подобное со стороны вычислений: обучать модели и одновременно очень рано формировать дефицитную инфраструктуру, от которой эти модели зависят. Когда конкуренты осознают важность этого слоя, преимущество часто уже находится не только в технологии, но и во времени, которое уже прошло.
Это не делает xAI автоматически лучше. Но делает компанию стратегически гибче, чем многие сейчас готовы признать.
Apple
В этой картине Apple выглядит скорее симптомом, чем драйвером. То, что Apple будет использовать Google Gemini для обновленного стека Siri, очень наглядно показывает: даже огромная платформенная мощь не гарантирует лидерства в моделях. Для пользователей и команд безопасности это ничего не упрощает. Чем сильнее смешиваются обещания on-device, риторика private cloud compute и внешние модельные ядра, тем менее понятно, куда на самом деле уходят данные, контексты, логи и решения.
Почему Anthropic Постоянно В Заголовках
Если сжать последние четыре месяца вокруг Anthropic, получится необычно плотный поток новостей: Claude Opus 4.6, Claude Sonnet 4.6, раунд Series G, покупка Vercept, новые партнерства, Anthropic Institute, 100 миллионов долларов для Claude Partner Network, утечка Mythos в Fortune, утечка Claude Code в Bloomberg, слухи об IPO и затем Project Glasswing 7 апреля.
Это не доказывает автоматически наличие тайной PR-хореографии. Но это показывает, насколько последовательно Anthropic превращает видимость в рыночную позицию в 2026 году. Для компании, которая одновременно продает доверие, enterprise readiness и возможный горизонт IPO, видимость не является побочным эффектом. Это часть игры.
Гуманоидные Роботы Больше Не Сноска
Пока компании вроде Anthropic, OpenAI и Google борются за модели, заголовки и софтовые workflow, те же способности переходят и в физический мир. И это до сих пор недооценено, потому что многие по-прежнему связывают ИИ прежде всего с окнами чата, генераторами изображений и coding-ассистентами.
Google DeepMind теперь показывает Gemini, Veo, Imagen, Lyria и Gemini Robotics бок о бок. Одновременно Boston Dynamics и Google DeepMind объявили в январе 2026 года о партнерстве вокруг Atlas и Gemini Robotics. Это больше, чем красивый момент с технологической выставки. Это показывает, что логика foundation models постепенно покидает браузер и переходит в физические системы.
Мы пока не живем в мире, где завтра утром гуманоидные роботы будут стоять рядом с нами повсюду. Но мы уже явно находимся в фазе, где фабрики тестируют, исследование и железо сближаются, а робототехника больше не мыслится без ИИ. Любой, кто говорит о будущем труда, думая только об офисном софте, смотрит слишком узко.
Безопасность Остается Настоящим Базовым Слоем
То, что занимает меня во всей этой дискуссии больше всего, это не только гонка моделей, но и то, что все это означает для безопасности. Здесь помогает короткий взгляд на пирамиду Маслоу. Безопасность находится там очень низко, обычно на втором уровне снизу. В этом и состоит главный смысл: безопасность не является роскошной функцией, которую можно добавить потом. Это условие для того, чтобы все, что выше, вообще могло стабильно работать. Это верно для людей и точно так же верно для цифровой инфраструктуры.
В моей ежедневной работе безопасность никогда не означала идеальную безопасность. Она означает вот что:
- понимать риски
- сокращать поверхность атаки
- планировать режимы отказа
- ограничивать ущерб
- сохранять работоспособность людей
Мы стремимся к максимально возможному уровню безопасности, одновременно понимая, что ничего полностью безопасного не существует. Именно поэтому 2026 год ощущается таким неудобным. Скорость изменений растет быстрее, чем наша способность за ними поспевать. У нас недостаточно сильных разработчиков, недостаточно сильных специалистов по безопасности и, конечно, недостаточно мощности, чтобы качественно проверять гору кода, которая продолжает расти и теперь производится не только людьми, но и моделями. Интернет никогда не был полностью безопасным. Новым становится скорость, с которой теперь масштабируется небезопасность.
Интернет Кажется Менее Безопасным, Потому Что Скорость Exploit Растет
Я не считаю, что 2026 год внезапно стал менее безопасным, потому что люди разучились писать софт. Я скорее считаю, что сочетание большего количества софта, большей автоматизации, большего числа зависимостей, большей нагрузки supply chain и лучших моделей делает видимым то, насколько хрупким все это было всегда.
Когда Anthropic находит в тестах Mythos баги, которые скрывались в системах 16 или 27 лет, это не экзотическая боковая история. Это напоминание о том, что цифровые системы полны исторического долга, неявных предположений и старых слоев, которые почти никто уже не понимает по-настоящему. Поэтому для меня по-прежнему актуально одно старое практическое правило:
Я предпочту несколько действительно хороших инструментов, а не множество средних.
Каждый дополнительный инструмент приносит:
- новые токены
- новые секреты
- новые браузерные сессии
- новые библиотеки
- новые плагины
- новые цепочки обновлений
- новые права
а вместе с ними и новые способы, которыми все может пойти не так.
В мире, где модели читают, комбинируют, расставляют приоритеты и иногда эксплуатируют быстрее прежнего, сокращение стека снова становится важным. Не потому, что минимализм звучит красиво, а потому что сложность создает вполне реальные издержки безопасности.
Самая Большая Проблема Теперь Это Проблема Правды
То, что сейчас тревожит меня почти сильнее классических уязвимостей, это эпистемологическая проблема: что вообще еще реально? Раньше изображение хотя бы в какой-то мере было полезным доказательством. Видео тем более.
Сегодня мы живем в мире, где:
- синтетические изображения создаются за минуты
- голоса можно убедительно клонировать
- видео можно убедительно подделывать
- тысячи SEO-подстраниц можно генерировать автоматически
- целые пространства мнений можно искусственно заполнять
Для безопасности это фундаментальный сдвиг. Безопасность теперь уже означает не только:
- мой endpoint чист?
- мой пароль силен?
- моя сеть сегментирована?
Она также означает:
- могу ли я все еще доверять источнику?
- могу ли я распознать подделанное доказательство?
- могу ли я принимать решения, опираясь на реальные сигналы?
- какие каналы остаются надежными во время инцидента?
Это больше не академическая проблема. Если компании все сильнее зависят от ИИ-агентов, автоматизированной коммуникации и синтетического контента, центр проблемы смещается от «защиты систем» к «защите систем, идентичностей, решений и восприятия реальности».
Само Доверие Становится Поверхностью Атаки
Еще один момент, о котором все еще говорят слишком мало: доверие теперь больше, чем криптография и аккуратные сетевые правила. Оно стало вопросом платформы, вопросом поставщика и в некоторой степени вопросом государства.
Мередит Уиттакер из Signal очень точно сформулировала это в Bloomberg в январе 2026 года. Ее мысль была в том, что ИИ-агенты «pretty perilous» для безопасных приложений, потому что для своей работы им нужны глубокие права, широкий доступ к данным и часто системный обзор всего контента. Именно поэтому эта тема настолько важна с точки зрения безопасности. Даже если шифрование остается математически надежным, в реальном мире его ценность падает, если операционная система, агент или окружающая платформа уже могут видеть все в открытом виде.
С этой точки зрения агент — это не просто «чатбот, который немного кликает». Это скорее новый программируемый сотрудник внутри компании. Он читает почту, видит документы, открывает браузерные сессии, вызывает API, знает календари, использует токены, запускает workflow и может даже писать код или тикеты. Если такой агент скомпрометирован, плохо делегирован или просто получил слишком много прав, злоумышленник уже не стоит снаружи у двери. Он уже внутри процесса.
Затем идет политический слой. Когда Apple пришлось убрать более сильное iCloud-шифрование в Великобритании из-за давления вокруг backdoor, это была не просто история о приватности. Это было напоминание о том, что обещания безопасности всегда зависят и от соотношения сил. А когда Apple одновременно опирается на Google Gemini для Siri, картина становится еще яснее: доверие сегодня зависит от цепочек зависимости, а не только от одного названия продукта.
Геополитика Снова Стала Инфраструктурой
Самый жесткий момент сейчас в том, насколько напрямую геополитические события снова влияют на техническую реальность. Гелий — хороший пример.
12 марта 2026 года Tom’s Hardware сообщил, что производство гелия на комплексе Ras Laffan в Катаре было нарушено после атак иранских беспилотников. Согласно этому сообщению, объект ушел в офлайн 2 марта и временно убрал с рынка около 30 процентов мирового предложения гелия. Это показывает, насколько тонкой стала нить между войной, химией, производством полупроводников и ИИ-инфраструктурой.
Короткая версия звучит жестко:
удар дронов -> дефицит гелия -> давление на производство чипов -> меньше запаса по ИИ-железу -> больше стресса в уже перегретом мире вычислений
Когда критически важные технологические газы становятся дефицитными, мы говорим не об абстрактной макроистории. Мы говорим об очень реальных узких местах в мире, которому одновременно нужно все больше и больше чипов. Речь не о том, чтобы свести весь сюжет к одной машине ASML, которой «нужен гелий». Речь идет обо всей цепочке: литография, охлаждение, технологические среды, фабрики, упаковка, экспортный контроль, электричество и датацентры. ИИ кажется цифровым, но зависит от очень физических вещей.
Это одна из самых сильных причин, по которой, на мой взгляд, стоит перестать воспринимать ИИ просто как историю про приложения или модели. ИИ сегодня — это:
- энергетическая политика
- цепочки поставок
- производство чипов
- облачные мощности
- внешняя политика
- промышленная стратегия
Китай Строит Суверенитет, А Не Только Модели
Многие на Западе прочитали момент DeepSeek прежде всего как рыночное и медийное событие. Я считаю, что более важный слой лежит глубже.
Reuters сообщил в конце февраля 2026 года, что DeepSeek не показывала свою будущую версию V4 американским производителям чипов для оптимизации, а заранее делилась ею с внутренними партнерами вроде Huawei. Одновременно продолжают появляться сообщения о том, что Huawei серьезно пытается выстроить собственный стек ниже модельного уровня через новые системы Ascend и Atlas. Подтвердятся ли в итоге все заявления о производительности или нет, почти вторично. Направление ясно: Китай хочет не только модели. Китай хочет собственный стек.
Именно это делает ближайшие годы такими интересными. Настоящая битва идет не между чатботами, а между инфраструктурными блоками.
Европа Рискует Остаться Наблюдателем
У Европы по-прежнему есть сильная наука, хорошие университеты, хорошая промышленность и разумная регуляторная традиция. Но, если честно, Европа сейчас немного похожа на Apple среди континентов:
- сильна в амбициях
- сильна в дизайне, этике и правилах
- слабее в моделях, чипах и платформенной власти
Формулировка намеренно немного резкая, но направление, как мне кажется, реальное. Пока США двигают модели, облако, чипы и капитал, а Китай продвигает суверенитет и внутренние стеки, Европа рискует тратить время на комментарии, регулирование, а потом на потребление продуктов, построенных где-то еще. С точки зрения безопасности это не мелочь, потому что зависимость всегда остается вопросом безопасности.
Между Хайпом И Страхом Почти Всегда Есть Чей-То Интерес
Сам медиаландшафт теперь тоже стал частью системы. В США ИИ часто продается почти религиозным тоном о будущем. Это неудивительно. Многие крупнейшие выгодоприобретатели этой волны находятся именно там: поставщики моделей, облачные платформы, разработчики чипов, венчурный капитал, публичные рынки, покупатели из оборонки и enterprise-клиенты.
В Европе разговор чаще звучит иначе: больше страха перед потерей рабочих мест, больше регуляторной тревоги, больше предупреждений о зависимости и потере темпа. Это тоже неудивительно, потому что у Европы меньше upside и больше зависимости во многих базовых платформенных слоях.
Мне кажется, оба этих рефлекса становятся опасными, когда их слишком упрощают. Наивный хайп игнорирует ущерб, концентрацию власти и риски безопасности. Чистый страх игнорирует инструменты, продуктивность и шанс наконец построить системы, на которые раньше просто не хватало времени. Поэтому я снова и снова возвращаюсь к более трудному среднему пути: сохранять интерес, не становясь наивным, называть риски, не замирая, и спрашивать себя перед каждым громким заголовком, кто рассказывает эту историю и в чьих интересах.
И Так, Мир Сломан?
Мой ответ — нет. Но он движется резко. Это ощущение, что все происходит сразу, создает для многих сильную перегрузку.
Мы переживаем одновременно:
- хайп ИИ
- реальный прогресс моделей
- перегретый капитал
- проблемы безопасности
- геополитику
- падение доверия к медийному контенту
- прогресс в робототехнике
- общество, которому все труднее отделять содержание от шоу
Это очень много, особенно если параллельно нужно вести обычную жизнь, работу, семью, компанию или отвечать за инфраструктуру. Тем не менее мне кажется опасным читать этот период только как историю о коллапсе, потому что так скрывается реальная задача. Вопрос не в том, как остановить изменения. Вопрос в следующем:
- каким системам я действительно хочу доверять?
- какие зависимости я должен сокращать?
- какие инструменты мне действительно нужны?
- какие основы безопасности нужно делать жестче?
- как мне сохранять способность принимать решения в мире, где скорость и обман растут вместе?
Что Компаниям Нужно Укрепить Прямо Сейчас
Если свести все это к практической работе, ответ получается удивительно негламурным. Речь не о том, чтобы бросить в каждую команду пять новых ИИ-инструментов и надеяться, что будущее возникнет само собой. Речь о том, чтобы строить несколько вещей гораздо осознаннее, чем раньше.
- Не запускайте ИИ-агентов под обычными пользовательскими аккаунтами. Давайте им отдельные идентичности, узкие scope, короткоживущие токены и четкие границы одобрения для почты, деплоя кода, административных изменений и платежей.
- Упрощайте инструментальный ландшафт вместо того, чтобы добавлять еще один SaaS каждую неделю. Каждое новое ИИ-приложение приносит больше сессий, браузерных расширений, плагинов, секретов, логов и зависимость от вендора.
- Логируйте агентов так же тщательно, как пользователей. Важны вызовы инструментов, доступ к файлам, одобрения, исходящие соединения, изменения в тикетах или коде и переход от prompt к действию.
- Стройте playbook проверки синтетического контента. Одобрения платежей, инструкции HR, admin-запросы и инцидентная коммуникация должны подтверждаться вторым каналом.
- Относитесь к patching и exposure management намного ближе к реальному времени, особенно для браузеров, идентичности, VPN, firewall, средств совместной работы и интернет-экспонированных сервисов.
- Тренируйте recovery так, как будто модель, connector или поставщик могут отказать уже завтра. Это означает экспортные пути, запасные каналы связи и чистый kill switch для агентов.
- Гораздо жестче допрашивайте критических поставщиков. Где на самом деле находятся данные, логи, prompt, memory, ключи, training opt-out и forensic-возможности?
Все это звучит куда менее гламурно, чем Mythos, Gemini, ChatGPT или Grok. Но именно здесь будет решаться, использует ли компания следующую волну как инструмент или ее похоронит собственная сложность. Мир не просто заканчивается. Он становится жестче, плотнее и быстрее. Тот, кто укрепит фундамент сейчас, еще будет иметь свободу по-настоящему извлекать пользу из ИИ позже.
До следующего раза,
Джо
Источники и ссылки
- OpenAI: Accelerating the next phase of AI
- Anthropic Newsroom
- Project Glasswing
- Fortune: Mythos leak
- Bloomberg: Claude Code leak
- Google Ironwood TPU
- DeepMind: Gemini Robotics
- xAI Colossus
- xAI joins SpaceX
- Tesla Lithium Refinery
- Bloomberg: Meredith Whittaker on AI agents
- Reuters: Apple and Google Gemini for Siri
- Reuters/TBS: DeepSeek and Huawei
- Tom’s Hardware: Qatar helium shutdown


