Hype de IA, guerras e falhas de segurança: o mundo está quebrado ou apenas a ser reconfigurado?

Hype de IA, guerras e falhas de segurança: o mundo está quebrado ou apenas a ser reconfigurado?

18 min read
Ai Security Personal

Há algumas semanas, em outro artigo , já tinha escrito que o mundo está a mudar mais depressa do que a maioria das pessoas imagina. Hoje quero deixar essa ideia ainda mais clara.

Nas conversas com clientes e equipas, a mesma pergunta volta sempre: quanto disto é progresso real, e quanto é apenas ruído com bom marketing por trás? Se acompanharmos as notícias desde o início de 2026, é fácil ficar com a sensação de que tudo se está a mover ao mesmo tempo. OpenAI, Google, Anthropic e xAI competem em público. Os robôs humanoides estão a sair das demos para entrar nas fábricas. Guerras e pressão geopolítica começam a atingir cadeias de abastecimento de chips e gases. Ao mesmo tempo surgem novas vulnerabilidades quase todos os dias, e cada nova ferramenta traz não só mais produtividade, mas também mais permissões, mais fluxos de dados e mais superfície de ataque.

Para quem trabalha a construir infraestrutura segura e a manter pessoas operacionais num mundo digital mais incerto, isto não parece apenas mais um ciclo normal de notícias tech. Parece compressão do tempo. A pergunta já não é apenas qual modelo benchmarka melhor. A verdadeira pergunta é esta: o mundo está mesmo quebrado, ou estamos a assistir ao início de uma reconfiguração completa?

A minha resposta, neste momento, é simples: o mundo não se partiu de repente. Mas está a ser reorganizado com uma velocidade e uma dureza que ultrapassam muita gente, mentalmente, economicamente e do ponto de vista da segurança.

Em resumo:

  • O que estamos a ver parece menos um colapso e mais uma reconstrução apressada de poder, infraestrutura e confiança.
  • A segurança continua a ser a camada base, porque IA sobre sistemas frágeis significa sobretudo erros mais rápidos e danos maiores.
  • A pergunta decisiva não é apenas que modelo está à frente, mas quem controla chips, compute, plataformas, dados e cadeias de abastecimento.

O Que Está Mesmo A Acelerar

O que importa aqui não é um único lançamento de modelo, mas a interação entre cinco forças:

  • enormes quantidades de capital
  • recursos de compute escassos
  • jogos de poder geopolíticos
  • atenção mediática como alavanca estratégica
  • a realidade técnica de que software nunca está realmente terminado nem realmente seguro

Quando estas cinco forças se movem ao mesmo tempo, surge uma sensação de aceleração permanente. É exatamente isso que 2026 mostra. A OpenAI fechou mais uma ronda massiva de financiamento a 31 de março de 2026. A Anthropic anunciou a sua Series G logo a 12 de fevereiro de 2026. A xAI levantou novo capital no início de janeiro. A Google, por sua vez, nem sequer precisa de grandes manchetes sobre rondas de financiamento, porque consegue financiar a sua corrida à IA com publicidade, cloud, hardware e poder de mercado já existente. Isto já não são notícias normais de software. São sinais de uma luta pela infraestrutura.

É aqui que, para mim, começa a diferença entre hype e estrutura. O hype faz barulho. A estrutura permanece. O mais importante não é apenas quem tem a melhor demo, mas quem controla ao mesmo tempo modelos, compute, distribuição, hardware e confiança.

Quem Está A Jogar Que Jogo

Se olharmos para os grandes atores de IA com alguma frieza, percebemos que não estão todos a jogar o mesmo jogo. E é precisamente isso que torna este mercado interessante e relevante do ponto de vista da segurança.

OpenAI

A OpenAI domina a distribuição. Muita gente não diz «uso um LLM», mas simplesmente «uso o ChatGPT». Com a ideia de uma «unified AI superapp» e uma camada de produto cada vez mais densa feita de Codex, conectores, bibliotecas de ficheiros, deep research e funções relacionadas, a OpenAI está a tentar entrar no trabalho diário a partir do lado consumer. Do ponto de vista da segurança, isso importa porque uma janela de chat pode tornar-se rapidamente um ponto de concentração para identidades, sessões, ficheiros, plugins e permissões de agentes.

Anthropic

A Anthropic joga muito mais em torno da confiança enterprise, da proximidade com developers e de uma narrativa centrada na segurança. Claude Code, Computer Use, Cowork e o foco em modelos de trabalho mais controláveis para empresas fazem com que Claude se pareça menos com um produto de massas e mais com um produto de confiança. Na minha leitura, a Anthropic vende mais do que desempenho do modelo: vende a ideia de que as organizações podem aproximar Claude de código-fonte, workflows e espaços de decisão sensíveis. Já desenvolvi Mythos e Project Glasswing com mais detalhe em outro artigo .

Google

A Google está a jogar o jogo mais amplo e provavelmente mais resistente. Do lado do Gemini vê-se um continente inteiro de produto que vai de Workspace a Pixel e DeepMind. Com o Google Vids, a IA entra em superfícies de trabalho normais em vez de aparecer apenas como uma demo vistosa. Ao mesmo tempo, a Google é um dos poucos atores que controlam muito mais o seu próprio destino de compute graças ao Ironwood, a sua sétima geração de TPU. Por isso continuo a achar que a Google é o ator mais subestimado desta corrida.

xAI

A xAI parece mais silenciosa, mas está longe de ser pequena. Com Colossus, Grok Business, Grok Enterprise e a ligação agora oficial à SpaceX, a xAI também está a tentar ocupar de forma séria infraestrutura e negócio.

O que me parece especialmente interessante aqui não é só o modelo, mas a tese de datacenter por trás disto. A xAI descreve o Colossus como uma espécie de gigafactory of compute: construído em 122 dias, depois duplicado para 200.000 GPU em mais 92 dias, com uma roadmap para ainda mais capacidade. Isto parece menos um lançamento clássico de software e mais uma tentativa de trazer muito cedo para controlo direto um gargalo estratégico.

Como observação de mercado, isto faz-me lembrar um padrão que já se viu antes nas empresas de Musk. A Tesla desenvolveu a rede Supercharger durante anos antes de muitos concorrentes compreenderem realmente o valor estratégico dessa camada de infraestrutura. Com a refinaria de lítio no Texas, a Tesla subiu ainda mais na cadeia para uma etapa crítica do valor da bateria. A xAI parece querer fazer algo semelhante no lado do compute: treinar modelos e, ao mesmo tempo, moldar cedo a infraestrutura escassa de que esses modelos dependem. Quando a concorrência percebe a importância dessa camada, a vantagem já não está apenas na tecnologia, mas no tempo que entretanto passou.

Isto não torna automaticamente a xAI melhor. Mas torna a empresa mais flexível estrategicamente do que muitos hoje lhe reconhecem.

Apple

Neste quadro, a Apple parece mais um sintoma do que um motor. O facto de a Apple usar o Gemini da Google para a futura pilha da Siri mostra com muita clareza que nem mesmo uma enorme força de plataforma garante liderança em modelos. Para utilizadores e equipas de segurança, isto não simplifica nada. Quanto mais se misturam promessas on-device, a retórica de private cloud compute e núcleos de modelos externos, menos claro fica onde realmente acabam os dados, os contextos, os logs e as decisões.

Porque É Que A Anthropic Está Sempre Nos Títulos

Se comprimirmos os últimos quatro meses em torno da Anthropic, obtemos um fluxo de notícias invulgarmente denso: Claude Opus 4.6, Claude Sonnet 4.6, a Series G, a aquisição da Vercept, novas parcerias, o Anthropic Institute, 100 milhões de dólares para o Claude Partner Network, a fuga de Mythos na Fortune, a fuga de Claude Code na Bloomberg, rumores de IPO e depois o Project Glasswing a 7 de abril.

Isto não prova automaticamente uma coreografia secreta de PR. Mas mostra até que ponto a Anthropic está a transformar visibilidade em posição de mercado durante 2026. Para uma empresa que vende ao mesmo tempo confiança, enterprise readiness e um possível horizonte de IPO, a visibilidade não é um efeito secundário. Faz parte do jogo.

Os Robôs Humanoides Já Não São Uma Nota De Rodapé

Enquanto empresas como Anthropic, OpenAI e Google lutam por modelos, manchetes e workflows de software, essas mesmas capacidades também se estão a mover para o mundo físico. E isso continua subestimado, porque muita gente ainda associa IA sobretudo a janelas de chat, geradores de imagem e assistentes de código.

A Google DeepMind já apresenta Gemini, Veo, Imagen, Lyria e Gemini Robotics lado a lado. Ao mesmo tempo, a Boston Dynamics e a Google DeepMind anunciaram em janeiro de 2026 uma parceria em torno do Atlas e do Gemini Robotics. Isto é muito mais do que um bonito momento de feira tecnológica. Mostra que a lógica dos foundation models está a sair lentamente do browser para entrar em sistemas físicos.

Ainda não estamos num mundo em que amanhã de manhã existam robôs humanoides ao nosso lado em toda a parte. Mas estamos claramente numa fase em que as fábricas testam, investigação e hardware se aproximam, e a robótica já não é imaginada sem IA. Quem fala do futuro do trabalho pensando apenas em software de escritório, por isso, está a olhar para um pedaço demasiado pequeno da história.

A Segurança Continua A Ser A Verdadeira Camada Base

O que mais me ocupa em todo este debate não é apenas a corrida aos modelos, mas o que tudo isto significa para a segurança. Aqui ajuda um olhar rápido para a pirâmide de Maslow. A segurança aparece muito em baixo, normalmente no penúltimo nível. Esse é precisamente o ponto: a segurança não é uma funcionalidade de luxo que se acrescenta depois. É uma pré-condição para que tudo o resto por cima funcione de forma estável. Isto vale para pessoas e vale da mesma forma para infraestrutura digital.

No meu trabalho diário, segurança nunca significou segurança perfeita. Significa antes isto:

  • compreender riscos
  • reduzir superfície de ataque
  • planear modos de falha
  • limitar danos
  • manter as pessoas operacionais

Procura-se assim o nível mais alto de segurança realisticamente possível, sabendo ao mesmo tempo que nada será nunca completamente seguro. É precisamente aqui que 2026 se torna tão desconfortável. A velocidade da mudança cresce mais depressa do que a nossa capacidade de acompanhar. Não temos developers suficientes de alto nível, não temos profissionais de segurança suficientes de alto nível e certamente não temos capacidade suficiente para rever de forma sólida a montanha de código que continua a crescer e que agora já não é produzida apenas por humanos, mas também por modelos. A internet nunca foi totalmente segura. O que muda é a velocidade a que a insegurança agora escala.

A Internet Parece Mais Frágil Porque A Velocidade Dos Exploits Está A Subir

Não acredito que 2026 se tenha tornado de repente menos seguro porque as pessoas se esqueceram de escrever software. Acredito, sim, que a mistura de mais software, mais automação, mais dependências, mais supply chain e modelos melhores está a tornar visível o quão frágil tudo isto sempre foi.

Quando a Anthropic encontra nos testes do Mythos bugs que estiveram escondidos em sistemas durante 16 ou 27 anos, isso não é uma nota lateral exótica. É um lembrete de que os sistemas digitais estão cheios de dívida histórica, suposições implícitas e camadas antigas que quase ninguém já compreende a fundo. É por isso que, para mim, continua a valer uma regra operacional antiga:

Prefiro usar poucas ferramentas boas do que muitas medianas.

Cada ferramenta adicional traz:

  • novos tokens
  • novos segredos
  • novas sessões de browser
  • novas bibliotecas
  • novos plugins
  • novas cadeias de atualização
  • novas permissões

e com isso, novas formas de as coisas correrem mal.

Num mundo em que os modelos leem, combinam, priorizam e por vezes exploram mais depressa do que antes, reduzir o stack volta a importar. Não porque o minimalismo soe elegante, mas porque a complexidade gera custos de segurança muito reais.

O Maior Problema Já É Um Problema De Verdade

O que agora me preocupa quase mais do que as vulnerabilidades clássicas é o problema epistémico: o que continua a ser real? Uma imagem antes ainda era pelo menos uma prova relativamente útil. Um vídeo ainda mais.

Hoje vivemos num mundo em que:

  • imagens sintéticas podem ser geradas em minutos
  • vozes podem ser clonadas de forma convincente
  • vídeos podem ser falsificados de forma persuasiva
  • milhares de subpáginas SEO podem ser geradas automaticamente
  • espaços inteiros de opinião podem ser preenchidos artificialmente

Para a segurança, isto representa uma mudança de fundo. Segurança já não significa apenas:

  • o meu endpoint está limpo?
  • a minha password é forte?
  • a minha rede está segmentada?

Também significa:

  • continuo a poder confiar na fonte?
  • consigo reconhecer provas manipuladas?
  • consigo decidir com base em sinais reais?
  • que canais continuam fiáveis durante um incidente?

Isto já não é um problema académico. Se as empresas dependerem cada vez mais de agentes de IA, de comunicação automatizada e de conteúdo sintético, o centro do problema desloca-se de «proteger sistemas» para «proteger sistemas, identidades, decisões e perceções da realidade».

A Própria Confiança Está A Tornar-Se Superfície De Ataque

Outro ponto de que ainda se fala pouco é que a confiança hoje é maior do que simples criptografia ou regras de rede limpas. Tornou-se uma questão de plataforma, de fornecedor e, até certo ponto, de Estado.

Meredith Whittaker, da Signal, resumiu isso muito bem na Bloomberg em janeiro de 2026. A ideia dela era que agentes de IA são «pretty perilous» para apps seguras porque precisam de permissões profundas, acesso amplo a dados e muitas vezes visibilidade total do sistema sobre os conteúdos para fazer o seu trabalho. E é precisamente por isso que o tema pesa tanto do ponto de vista da segurança. Mesmo que a cifra continue matematicamente sólida, perde valor prático quando o sistema operativo, o agente ou a plataforma em redor já conseguem ver tudo em claro.

Desta perspetiva, um agente não é simplesmente «um chatbot que clica um pouco». É mais um novo colaborador programável dentro da empresa. Lê emails, vê documentos, abre sessões de browser, chama APIs, conhece calendários, usa tokens, inicia workflows e pode até escrever código ou tickets. Se esse agente for comprometido, mal delegado ou simplesmente receber permissões a mais, o atacante já não está do lado de fora da porta. Já está dentro do processo.

Depois há a camada política. Quando a Apple teve de retirar no Reino Unido uma cifra iCloud mais forte por causa da pressão em torno de backdoors, isso não foi apenas uma história de privacidade. Foi um lembrete de que promessas de segurança também dependem sempre de relações de poder. E quando a Apple, ao mesmo tempo, se apoia no Google Gemini para a Siri, o quadro torna-se ainda mais claro: a confiança hoje depende de cadeias de dependência, e não apenas de um nome de produto.

A Geopolítica Voltou A Ser Infraestrutura

O ponto mais duro do momento é o quão diretamente os acontecimentos geopolíticos voltaram a afetar a realidade técnica. O hélio é um bom exemplo.

Em 12 de março de 2026, a Tom’s Hardware relatou que a produção de hélio no complexo de Ras Laffan, no Qatar, tinha sido afetada após ataques com drones iranianos. Segundo esse relatório, o local ficou offline a 2 de março, retirando temporariamente cerca de 30 por cento do fornecimento global de hélio do mercado. Isto mostra o quão fino se tornou o fio entre guerra, química, fabrico de semicondutores e infraestrutura de IA.

A versão curta é brutal:

ataque com drones -> escassez de hélio -> pressão sobre a produção de chips -> menos margem para hardware de IA -> mais stress num mundo de compute já sobreaquecido

Quando gases críticos de processo se tornam escassos, não estamos a falar de uma história macro abstrata. Estamos a falar de gargalos muito reais num mundo que precisa de cada vez mais chips ao mesmo tempo. Não se trata de reduzir a história a uma máquina ASML que «precisa de hélio». Trata-se da cadeia toda: litografia, arrefecimento, ambientes de processo, fabs, packaging, controlos de exportação, eletricidade e datacenters. A IA parece digital, mas depende de coisas muito físicas.

Esta é uma das razões mais fortes, para mim, para deixarmos de tratar a IA apenas como uma história de apps ou de modelos. A IA é hoje:

  • política energética
  • cadeia de abastecimento
  • fabrico de chips
  • capacidade cloud
  • política externa
  • estratégia industrial

A China Está A Construir Soberania, Não Apenas Modelos

Muita gente no Ocidente leu o momento DeepSeek sobretudo como um evento de bolsa e de media. Eu acho que a camada mais importante está mais abaixo.

A Reuters relatou no final de fevereiro de 2026 que a DeepSeek não tinha mostrado a sua próxima versão V4 a fabricantes de chips norte-americanos para otimização, mas a tinha partilhado antecipadamente com parceiros domésticos como a Huawei. Ao mesmo tempo continuam a surgir relatos de que a Huawei está a tentar construir seriamente um stack doméstico abaixo da camada de modelos através de novos sistemas Ascend e Atlas. Que todas as promessas de desempenho se confirmem ou não é quase secundário. A direção é clara: a China não quer apenas modelos. Quer o seu próprio stack.

É isso que torna os próximos anos tão interessantes. A verdadeira batalha não se trava entre chatbots, mas entre blocos de infraestrutura.

A Europa Corre O Risco De Observar Mais Do Que Construir

A Europa continua a ter boa investigação, boas universidades, boa indústria e uma tradição regulatória razoável. Mas, se for honesto, a Europa neste momento parece um pouco o Apple dos continentes:

  • forte na ambição
  • forte em design, ética e regras
  • mais fraca em modelos, chips e poder de plataforma

A formulação é deliberadamente um pouco cortante, mas acho que a tendência é real. Enquanto os Estados Unidos empurram modelos, cloud, chips e capital, e a China empurra soberania e stacks domésticos, a Europa corre o risco de gastar o seu tempo a comentar, regular e depois consumir produtos construídos noutro lugar. Do ponto de vista da segurança, isto não é trivial, porque dependência continua a ser sempre uma questão de segurança.

Entre O Hype E O Medo Há Quase Sempre Um Interesse

O próprio panorama mediático passou a fazer parte do sistema. Nos Estados Unidos, a IA é muitas vezes vendida com um tom quase religioso sobre o futuro. Isso não surpreende. Muitos dos maiores beneficiários desta vaga estão lá: fornecedores de modelos, plataformas cloud, designers de chips, venture capital, mercados públicos, compradores da defesa e clientes enterprise.

Na Europa, o debate costuma soar de forma diferente: mais medo da perda de emprego, mais preocupação regulatória, mais avisos sobre dependência e perda de velocidade. Isto também não surpreende, porque a Europa tem menos upside e mais dependência em muitas camadas base de plataforma.

Penso que ambos estes reflexos se tornam perigosos quando ficam demasiado simples. O hype ingénuo ignora danos, concentração de poder e risco de segurança. O medo puro ignora ferramentas, produtividade e a possibilidade de finalmente construir sistemas para os quais nunca houve tempo suficiente antes. Por isso volto sempre a este caminho do meio, mais exigente: manter o interesse sem cair na ingenuidade, nomear riscos sem congelar, e perguntar diante de cada grande manchete quem está a contar esta história e com que interesse.

Então, O Mundo Está Quebrado?

A minha resposta é não. Mas está em movimento brusco. Esta sensação de que tudo acontece ao mesmo tempo cria sobrecarga em muita gente.

Estamos a viver tudo isto em simultâneo:

  • hype de IA
  • progresso real de modelos
  • capital sobreaquecido
  • problemas de segurança
  • geopolítica
  • perda de confiança em conteúdos mediáticos
  • avanços em robótica
  • um público que tem cada vez mais dificuldade em separar substância de espetáculo

É muita coisa, sobretudo quando ao mesmo tempo também se tenta gerir uma vida normal, um trabalho, uma família, uma empresa ou uma responsabilidade sobre infraestrutura. Ainda assim, acho perigoso ler este período apenas como uma história de colapso, porque isso esconde a tarefa real. A pergunta não é como travar a mudança. A pergunta é esta:

  • em que sistemas quero realmente confiar?
  • que dependências devo reduzir?
  • de que ferramentas preciso mesmo?
  • que bases de segurança têm de endurecer?
  • como continuo capaz de decidir num mundo onde velocidade e engano crescem juntos?

O Que As Empresas Têm De Endurecer Agora

Se eu reduzir tudo isto ao trabalho prático, a resposta torna-se surpreendentemente pouco glamorosa. Não se trata de lançar cinco novas ferramentas de IA em cada equipa e esperar que o futuro apareça por magia. Trata-se de construir algumas coisas com muito mais intenção do que antes.

  • Não coloquem agentes de IA a correr sob contas normais de utilizador. Deem-lhes identidades separadas, scopes apertados, tokens de curta duração e limites claros para email, deploys de código, alterações administrativas e pagamentos.
  • Simplifiquem as paisagens de ferramentas em vez de acrescentar um novo SaaS todas as semanas. Cada nova app de IA traz mais sessões, extensões de browser, plugins, segredos, logs e dependência do fornecedor.
  • Registem bem os agentes, não apenas os utilizadores. Importam as chamadas a ferramentas, os acessos a ficheiros, aprovações, ligações de saída, alterações em tickets ou código e a transição de prompt para ação.
  • Construam um playbook de verificação para conteúdos sintéticos. Aprovações de pagamento, instruções de RH, pedidos administrativos e comunicação em incidente devem ser confirmados por um segundo canal.
  • Tratem patching e exposure management muito mais perto do tempo real, sobretudo para browsers, identidade, VPN, firewalls, ferramentas de colaboração e serviços expostos à internet.
  • Treinem recovery como se um modelo, um conector ou um fornecedor pudesse cair amanhã. Isso significa caminhos de exportação, canais alternativos de comunicação e um kill switch limpo para agentes.
  • Questionem muito mais os fornecedores críticos. Onde estão realmente os dados, os logs, os prompts, a memória, as chaves, os opt-outs de treino e as opções de forensics?

Isto soa muito menos glamoroso do que Mythos, Gemini, ChatGPT ou Grok. Mas é precisamente aqui que se vai decidir se uma empresa usa a próxima vaga como ferramenta ou acaba esmagada pela sua própria complexidade. O mundo não está simplesmente a acabar. Está a tornar-se mais duro, mais denso e mais rápido. Quem reforçar agora a base continuará a ter mais tarde a liberdade de beneficiar realmente da IA.

Até à próxima,
Joe

© 2026 trueNetLab