Hype de IA, guerras y fallos de seguridad: ¿el mundo está roto o solo en plena reconfiguración?

Hype de IA, guerras y fallos de seguridad: ¿el mundo está roto o solo en plena reconfiguración?

18 min read
Ai Security Personal

Hace unas semanas ya escribí en otro artículo que el mundo está cambiando más rápido de lo que la mayoría cree. Hoy quiero formular esa idea con más claridad.

En conversaciones con clientes y equipos vuelve una y otra vez la misma pregunta: ¿qué parte de todo esto es progreso real y qué parte es solo ruido con buen marketing? Si uno sigue las noticias desde principios de 2026, es fácil tener la sensación de que todo se mueve al mismo tiempo. OpenAI, Google, Anthropic y xAI compiten públicamente. Los robots humanoides pasan de las demos a las fábricas. Las guerras y la presión geopolítica empiezan a golpear cadenas de suministro de chips y gases. Al mismo tiempo aparecen nuevas vulnerabilidades casi cada día, y cada herramienta nueva trae no solo más productividad, sino también más permisos, más flujos de datos y más superficie de ataque.

Para quienes trabajan construyendo infraestructura segura y manteniendo a las personas operativas dentro de un mundo digital cada vez más incierto, esto no se siente como noticias tecnológicas normales. Se siente como compresión del tiempo. La pregunta ya no es solo qué modelo benchmarkea mejor. La pregunta real es esta: ¿el mundo está realmente roto o estamos viendo el inicio de una reconfiguración completa?

Mi respuesta ahora mismo es simple: el mundo no se rompió de repente. Pero sí está siendo reordenado con una velocidad y una dureza que sobrepasan a mucha gente mental, económica y operativamente.

En resumen:

  • Lo que estamos viendo se parece menos a un colapso y más a una reconstrucción apresurada del poder, la infraestructura y la confianza.
  • La seguridad sigue siendo la capa base, porque la IA sobre sistemas inseguros significa sobre todo errores más rápidos y daños mayores.
  • La pregunta decisiva no es solo qué modelo va delante, sino quién controla chips, compute, plataformas, datos y cadenas de suministro.

Qué Es Lo Que Realmente Se Está Acelerando

Lo importante aquí no es un único lanzamiento de modelo, sino la interacción de cinco fuerzas:

  • enormes cantidades de capital
  • recursos de compute escasos
  • juegos de poder geopolíticos
  • atención mediática como palanca estratégica
  • la realidad técnica de que el software nunca está realmente terminado ni realmente seguro

Cuando esas cinco fuerzas se mueven al mismo tiempo, aparece una sensación de aceleración permanente. Eso es exactamente lo que muestra 2026. OpenAI cerró otra ronda masiva de financiación el 31 de marzo de 2026. Anthropic anunció su Series G ya el 12 de febrero de 2026. xAI levantó nuevo capital a principios de enero. Google, mientras tanto, ni siquiera necesita dramatizar rondas de financiación, porque puede subvencionar su apuesta por la IA con publicidad, cloud, hardware y poder de mercado ya existente. Esto ya no son noticias normales de software. Son señales de una pelea por infraestructura.

Ahí empieza para mí la diferencia entre hype y estructura. El hype hace ruido. La estructura permanece. Lo importante no es solo quién tiene la mejor demo, sino quién controla a la vez modelos, compute, distribución, hardware y confianza.

Quién Está Jugando A Qué

Si uno observa con calma a los grandes actores de la IA, queda claro que no todos están jugando la misma partida. Y precisamente eso es lo que hace este mercado tan interesante desde el punto de vista de la seguridad.

OpenAI

OpenAI domina la distribución. Mucha gente no dice «uso un LLM», sino simplemente «uso ChatGPT». Con la idea de una «unified AI superapp» y una capa de producto cada vez más densa formada por Codex, conectores, bibliotecas de archivos, deep research y funciones relacionadas, OpenAI intenta crecer desde el consumo masivo hacia el trabajo diario. Desde la óptica de seguridad eso importa, porque una ventana de chat puede convertirse rápidamente en un punto de concentración para identidades, sesiones, archivos, plugins y permisos de agentes.

Anthropic

Anthropic juega mucho más desde la confianza enterprise, la cercanía con desarrolladores y una narrativa centrada en la seguridad. Claude Code, Computer Use, Cowork y el foco en modelos de trabajo más controlables para empresas hacen que Claude se parezca menos a un producto de masas y más a un producto de confianza. En mi opinión, Anthropic vende algo más que rendimiento de modelo: vende la historia de que las organizaciones pueden acercar Claude al código fuente, a los workflows y a espacios de decisión sensibles. Ya desarrollé Mythos y Project Glasswing con más detalle en un artículo separado .

Google

Google juega el juego más amplio y probablemente más resistente. En el lado de Gemini se ve un continente entero de producto que va de Workspace a Pixel y DeepMind. Con Google Vids, la IA se inserta en superficies de trabajo normales en lugar de mostrarse solo como una demo llamativa. Al mismo tiempo, Google es de los pocos actores que controlan mucho más su propio destino de compute gracias a Ironwood, su séptima generación de TPU. Por eso sigo pensando que Google es el actor más infravalorado de esta carrera.

xAI

xAI parece más silenciosa, pero no es pequeña. Con Colossus, Grok Business, Grok Enterprise y la ya oficial conexión con SpaceX, xAI también intenta ocupar seriamente infraestructura y negocio.

Lo que me parece especialmente interesante no es solo el modelo, sino la tesis de datacenter que hay detrás. xAI describe Colossus como una especie de gigafactory of compute: construida en 122 días, duplicada después a 200.000 GPU en otros 92 días, con una hoja de ruta hacia todavía más capacidad. Eso se parece menos a un lanzamiento de software clásico y más a un intento de controlar muy pronto un cuello de botella estratégico.

Como observación de mercado, esto me recuerda mucho a un patrón que ya se ha visto antes en compañías de Musk. Tesla construyó la red Supercharger durante años antes de que muchos competidores entendieran de verdad el valor estratégico de esa capa de infraestructura. Con la refinería de litio en Texas, Tesla se movió todavía más arriba dentro de una fase crítica de la cadena de valor de la batería. xAI parece querer hacer algo parecido en el lado del compute: entrenar modelos y, al mismo tiempo, moldear pronto la infraestructura escasa de la que esos modelos dependen. Cuando la competencia comprende la importancia de esa capa, la ventaja a menudo no está solo en la tecnología, sino en el tiempo que ya ha pasado.

Eso no convierte automáticamente a xAI en mejor empresa. Pero sí la hace más flexible estratégicamente de lo que muchos le reconocen hoy.

Apple

En esta imagen, Apple es más síntoma que motor. El hecho de que Apple vaya a usar Gemini de Google para la futura pila de Siri deja claro que ni siquiera una enorme potencia de plataforma garantiza liderazgo en modelos. Para usuarios y equipos de seguridad, esto no simplifica nada. Cuanto más se mezclan promesas on-device, el discurso de private cloud compute y núcleos de modelos externos, menos claro queda dónde terminan realmente los datos, los contextos, los logs y las decisiones.

Por Qué Anthropic Está Constantemente En Los Titulares

Si se condensan los últimos cuatro meses alrededor de Anthropic, aparece un flujo de noticias inusualmente denso: Claude Opus 4.6, Claude Sonnet 4.6, la Series G, la compra de Vercept, nuevas alianzas, el Anthropic Institute, 100 millones de dólares para el Claude Partner Network, la filtración de Mythos en Fortune, la filtración de Claude Code en Bloomberg, rumores de IPO y luego Project Glasswing el 7 de abril.

Eso no demuestra automáticamente una coreografía secreta de PR. Pero sí muestra hasta qué punto Anthropic está convirtiendo visibilidad en posición de mercado durante 2026. Para una empresa que vende al mismo tiempo confianza, preparación enterprise y un posible horizonte de salida a bolsa, la visibilidad no es un efecto secundario. Es parte del juego.

Los Robots Humanoides Ya No Son Una Nota Al Pie

Mientras empresas como Anthropic, OpenAI y Google se pelean por modelos, titulares y workflows de software, esas mismas capacidades también se están moviendo al mundo físico. Y eso sigue estando infravalorado, porque mucha gente todavía asocia la IA sobre todo con ventanas de chat, generadores de imágenes y asistentes de código.

Google DeepMind ya presenta Gemini, Veo, Imagen, Lyria y Gemini Robotics lado a lado. Al mismo tiempo, Boston Dynamics y Google DeepMind anunciaron en enero de 2026 una colaboración en torno a Atlas y Gemini Robotics. Eso es mucho más que un momento bonito de feria tecnológica. Muestra que la lógica de los foundation models está saliendo poco a poco del navegador para entrar en sistemas físicos.

Todavía no estamos en un mundo donde mañana haya robots humanoides a nuestro lado en todas partes. Pero sí estamos claramente en una fase donde las fábricas prueban, la investigación y el hardware se acercan, y la robótica ya no se piensa sin IA. Cualquiera que hable del futuro del trabajo pensando solo en software de oficina se está quedando corto.

La Seguridad Sigue Siendo La Verdadera Capa Base

Lo que más me ocupa de todo este debate no es solo la carrera de modelos, sino lo que todo esto significa para la seguridad. Aquí ayuda una mirada breve a la pirámide de Maslow. La seguridad aparece muy abajo, normalmente en el segundo nivel desde la base. Ese es justamente el punto: la seguridad no es una función de lujo que se añade más tarde. Es una condición previa para que todo lo demás pueda funcionar con estabilidad. Eso vale para las personas y vale igual para la infraestructura digital.

En mi trabajo diario, seguridad nunca ha significado seguridad perfecta. Significa más bien esto:

  • entender riesgos
  • reducir superficie de ataque
  • planificar modos de fallo
  • limitar daños
  • mantener operativas a las personas

Uno intenta alcanzar el mayor nivel de seguridad posible sabiendo al mismo tiempo que nada será nunca completamente seguro. Ahí es donde 2026 se vuelve tan incómodo. La velocidad del cambio crece más deprisa que nuestra capacidad de seguirla. No tenemos suficientes buenos desarrolladores, no tenemos suficientes buenos perfiles de seguridad y desde luego no tenemos suficiente capacidad para revisar de forma limpia la montaña de código que crece sin parar y que ahora ya no producen solo personas, sino también modelos. Internet nunca fue totalmente seguro. Lo nuevo es la velocidad a la que ahora escala la inseguridad.

Internet Se Siente Más Inseguro Porque La Velocidad Del Exploit Está Subiendo

No creo que 2026 se haya vuelto de repente menos seguro porque la gente haya olvidado cómo escribir software. Creo más bien que la mezcla de más software, más automatización, más dependencias, más supply chain y mejores modelos está dejando ver hasta qué punto todo esto siempre fue frágil.

Cuando Anthropic saca en sus pruebas de Mythos bugs que estuvieron ocultos en sistemas durante 16 o 27 años, eso no es una nota al margen exótica. Es un recordatorio de que los sistemas digitales están llenos de deuda histórica, suposiciones implícitas y capas antiguas que casi nadie entiende ya del todo. Por eso para mí sigue valiendo una vieja regla operativa:

Prefiero usar pocas herramientas buenas antes que muchas mediocres.

Cada herramienta adicional trae:

  • nuevos tokens
  • nuevos secretos
  • nuevas sesiones de navegador
  • nuevas librerías
  • nuevos plugins
  • nuevas cadenas de actualización
  • nuevos permisos

y con ello, nuevas formas de que algo salga mal.

En un mundo donde los modelos leen, combinan, priorizan y a veces explotan más rápido que antes, minimizar el stack vuelve a importar. No porque el minimalismo suene elegante, sino porque la complejidad genera costes de seguridad muy reales.

El Problema Más Grande Ya Es Un Problema De Verdad

Lo que ahora mismo me preocupa casi más que las vulnerabilidades clásicas es el problema epistemológico: ¿qué sigue siendo real? Una imagen antes era al menos una prueba más o menos útil. Un vídeo todavía más.

Hoy vivimos en un mundo donde:

  • se pueden generar imágenes sintéticas en minutos
  • se pueden clonar voces de forma convincente
  • se pueden falsificar vídeos de manera persuasiva
  • se pueden producir miles de subpáginas SEO automáticamente
  • se pueden rellenar espacios enteros de opinión de manera artificial

Para la seguridad, esto supone un cambio de fondo. Seguridad ya no significa solo:

  • ¿mi endpoint está limpio?
  • ¿mi contraseña es fuerte?
  • ¿mi red está segmentada?

También significa:

  • ¿puedo seguir confiando en la fuente?
  • ¿puedo reconocer pruebas manipuladas?
  • ¿puedo decidir a partir de señales reales?
  • ¿qué canales siguen siendo fiables durante un incidente?

Esto ya no es un problema académico. Si las empresas dependen cada vez más de agentes de IA, comunicación automatizada y contenido sintético, el centro del problema se desplaza de «proteger sistemas» a «proteger sistemas, identidades, decisiones y percepciones de la realidad».

La Confianza Se Está Convirtiendo En Superficie De Ataque

Otro punto del que todavía se habla demasiado poco es que la confianza ya es algo más amplio que la criptografía o unas reglas de red limpias. Se ha convertido en una cuestión de plataforma, de proveedor y, en cierta medida, de Estado.

Meredith Whittaker, desde Signal, lo resumió muy bien en Bloomberg en enero de 2026. Su idea era que los agentes de IA son «pretty perilous» para las apps seguras porque necesitan permisos profundos, acceso amplio a datos y a menudo visibilidad total del sistema sobre el contenido para poder hacer su trabajo. Ahí está precisamente el problema desde la óptica de seguridad. Incluso si el cifrado sigue siendo matemáticamente sólido, pierde valor práctico cuando el sistema operativo, el agente o la plataforma que los rodea ya pueden verlo todo en texto claro.

Desde esta perspectiva, un agente no es simplemente «un chatbot que hace unos clics». Es más bien un nuevo empleado programable dentro de la empresa. Lee correos, ve documentos, abre sesiones de navegador, llama APIs, conoce calendarios, usa tokens, lanza workflows y puede incluso escribir código o tickets. Si ese agente se compromete, se delega mal o simplemente recibe demasiados permisos, el atacante ya no está fuera de la puerta. Ya está dentro del proceso.

Y luego está la capa política. Cuando Apple tuvo que retirar un cifrado más fuerte de iCloud en el Reino Unido por presión en torno a backdoors, aquello no fue solo una historia de privacidad. Fue un recordatorio de que las promesas de seguridad siempre dependen también de relaciones de poder. Y cuando Apple, al mismo tiempo, se apoya en Google Gemini para Siri, la imagen se vuelve todavía más clara: hoy la confianza depende de cadenas de dependencia, no solo de un nombre de producto.

La Geopolítica Ha Vuelto A Ser Infraestructura

El punto más duro del momento es hasta qué punto los eventos geopolíticos vuelven a afectar directamente la realidad técnica. El helio es un buen ejemplo.

El 12 de marzo de 2026, Tom’s Hardware informó de que la producción de helio en el complejo de Ras Laffan, en Catar, se había visto afectada tras ataques de drones iraníes. Según ese informe, la instalación quedó fuera de servicio el 2 de marzo, retirando temporalmente alrededor del 30 por ciento del suministro global de helio del mercado. Eso muestra lo fino que se ha vuelto el hilo entre guerra, química, fabricación de semiconductores e infraestructura de IA.

La versión corta es brutal:

ataque con drones -> escasez de helio -> presión sobre la producción de chips -> menos margen para hardware de IA -> más tensión en un mundo del compute ya sobrecalentado

Cuando escasean gases críticos de proceso, no estamos hablando de una historia macro abstracta. Estamos hablando de cuellos de botella muy reales en un mundo que necesita más y más chips a la vez. No se trata de reducir la historia a una máquina ASML que «necesita helio». Se trata de toda la cadena: litografía, refrigeración, entornos de proceso, fabs, packaging, controles de exportación, electricidad y datacenters. La IA parece digital, pero depende de cosas muy físicas.

Esa es una de las razones más fuertes, para mí, para dejar de tratar la IA solo como una historia de apps o de modelos. La IA ahora es:

  • política energética
  • cadena de suministro
  • fabricación de chips
  • capacidad cloud
  • política exterior
  • estrategia industrial

China Está Construyendo Soberanía, No Solo Modelos

Mucha gente en Occidente leyó el momento DeepSeek sobre todo como un evento bursátil y mediático. Yo creo que la capa importante está más abajo.

Reuters informó a finales de febrero de 2026 de que DeepSeek no había mostrado su próxima versión V4 a fabricantes de chips estadounidenses para optimización, sino que la había compartido antes con socios nacionales como Huawei. Al mismo tiempo siguen apareciendo informaciones de que Huawei intenta construir seriamente un stack doméstico por debajo de la capa de modelos a través de nuevos sistemas Ascend y Atlas. Que todas las promesas de rendimiento se cumplan o no es casi secundario. La dirección está clara: China no quiere solo modelos. China quiere su propio stack.

Eso es lo que hace tan interesantes los próximos años. La verdadera batalla no se libra entre chatbots, sino entre bloques de infraestructura.

Europa Corre El Riesgo De Mirar Más Que Construir

Europa sigue teniendo buena investigación, buenas universidades, buena industria y una tradición regulatoria razonable. Pero si soy honesto, Europa se parece ahora mismo un poco al Apple de los continentes:

  • fuerte en ambición
  • fuerte en diseño, ética y normas
  • más débil en modelos, chips y poder de plataforma

La frase es deliberadamente un poco afilada, pero creo que la tendencia es real. Mientras Estados Unidos empuja modelos, cloud, chips y capital, y China empuja soberanía y stacks domésticos, Europa corre el riesgo de pasarse el tiempo comentando, regulando y luego consumiendo productos creados en otro lugar. Desde la óptica de seguridad, eso no es trivial, porque la dependencia siempre es también un tema de seguridad.

Entre El Hype Y El Miedo Suele Haber Un Interés

El paisaje mediático se ha convertido también en parte del sistema. En Estados Unidos, la IA se vende a menudo con un tono casi religioso sobre el futuro. No es extraño. Muchos de los principales beneficiarios de esta ola están allí: proveedores de modelos, plataformas cloud, diseñadores de chips, venture capital, mercados públicos, compradores de defensa y clientes enterprise.

En Europa, el debate suele sonar distinto: más miedo a la pérdida de empleo, más preocupación regulatoria, más avisos sobre dependencia y pérdida de ritmo. Tampoco es extraño, porque Europa tiene menos upside y más dependencia en muchas de las capas básicas de plataforma.

Creo que ambos reflejos se vuelven peligrosos cuando se simplifican demasiado. El hype ingenuo ignora daños, concentración de poder y riesgo de seguridad. El miedo puro ignora herramientas, productividad y la oportunidad de construir por fin sistemas para los que antes nunca hubo tiempo suficiente. Por eso siempre vuelvo a ese camino incómodo del medio: seguir interesado sin volverse ingenuo, nombrar riesgos sin quedarse paralizado, y preguntarse con cada gran titular quién está contando esta historia y con qué interés.

Entonces, ¿El Mundo Está Roto?

Mi respuesta es no. Pero sí está en movimiento brusco. Esa sensación de que todo ocurre a la vez genera sobrecarga en mucha gente.

Estamos viviendo todo esto al mismo tiempo:

  • hype de IA
  • progreso real de modelos
  • capital sobrecalentado
  • problemas de seguridad
  • geopolítica
  • pérdida de confianza en contenidos mediáticos
  • avances en robótica
  • un público que cada vez tiene más dificultades para separar sustancia y espectáculo

Es mucho, sobre todo si al mismo tiempo hay que sostener una vida normal, un trabajo, una familia, una empresa o una responsabilidad sobre infraestructura. Aun así, me parece peligroso leer esta etapa solo como una historia de colapso, porque eso esconde la tarea real. La pregunta no es cómo detener el cambio. La pregunta es esta:

  • ¿en qué sistemas quiero confiar de verdad?
  • ¿qué dependencias debo reducir?
  • ¿qué herramientas necesito realmente?
  • ¿qué bases de seguridad tienen que endurecerse?
  • ¿cómo sigo siendo capaz de decidir en un mundo donde aumentan a la vez la velocidad y el engaño?

Qué Tienen Que Endurecer Las Empresas Ahora

Si reduzco todo esto al trabajo práctico, la respuesta se vuelve sorprendentemente poco glamurosa. No se trata de meter cinco herramientas nuevas de IA en cada equipo y esperar que el futuro aparezca por arte de magia. Se trata de construir unas pocas cosas con mucha más intención que antes.

  • No hagas correr agentes de IA bajo cuentas normales de usuario. Dales identidades separadas, scopes estrechos, tokens de vida corta y límites claros para correo, despliegues de código, cambios administrativos y pagos.
  • Simplifica los paisajes de herramientas en lugar de añadir otro SaaS cada semana. Cada nueva app de IA trae más sesiones, extensiones de navegador, plugins, secretos, logs y dependencia de proveedor.
  • Registra bien a los agentes, no solo a los usuarios. Importan las llamadas a herramientas, el acceso a archivos, las aprobaciones, las conexiones salientes, los cambios en tickets o código y la transición de prompt a acción.
  • Diseña un playbook de verificación para contenido sintético. Aprobaciones de pago, instrucciones de RR. HH., peticiones admin y comunicación en incidentes deberían confirmarse por un segundo canal.
  • Trata el patching y la gestión de exposición mucho más cerca del tiempo real, sobre todo para navegadores, identidad, VPN, firewalls, herramientas de colaboración y servicios expuestos a internet.
  • Practica la recuperación como si un modelo, un conector o un proveedor pudiera caer mañana. Eso implica rutas de exportación, canales alternativos de comunicación y un kill switch limpio para agentes.
  • Cuestiona mucho más a los proveedores críticos. ¿Dónde están realmente los datos, los logs, los prompts, la memoria, las claves, los opt-outs de entrenamiento y las opciones forenses?

Eso suena bastante menos glamuroso que Mythos, Gemini, ChatGPT o Grok. Pero justo ahí se decidirá si una empresa utiliza la próxima ola como herramienta o queda enterrada por su propia complejidad. El mundo no se está acabando sin más. Se está volviendo más duro, más denso y más rápido. Quienes refuercen ahora la base seguirán teniendo después la libertad de beneficiarse de la IA de verdad.

Hasta la próxima,
Joe

Fuentes y enlaces de interés

© 2026 trueNetLab