Hype AI, perang dan kelemahan keselamatan: adakah dunia rosak atau hanya sedang disusun semula?

Hype AI, perang dan kelemahan keselamatan: adakah dunia rosak atau hanya sedang disusun semula?

16 min read
Ai Security Personal

Beberapa minggu lalu, dalam satu lagi artikel , saya sudah menulis bahawa dunia sedang berubah lebih pantas daripada yang disangka kebanyakan orang. Hari ini saya mahu menegaskan idea itu dengan lebih jelas.

Dalam perbualan dengan pelanggan dan pasukan, soalan yang sama terus muncul: berapa banyak daripada semua ini benar-benar kemajuan, dan berapa banyak pula hanyalah bunyi bising dengan pemasaran yang bagus? Jika kita mengikuti berita sejak awal 2026, sangat mudah terasa seolah-olah semuanya bergerak serentak. OpenAI, Google, Anthropic dan xAI sedang berlumba di hadapan umum. Robot humanoid bergerak keluar daripada demo ke kilang. Perang dan tekanan geopolitik mula menghentam rantaian bekalan cip dan gas. Pada masa yang sama, kelemahan baharu muncul hampir setiap hari, dan setiap alat baharu membawa bukan sahaja lebih produktiviti, tetapi juga lebih banyak kebenaran, lebih banyak aliran data, dan permukaan serangan yang lebih besar.

Bagi mereka yang bekerja membina infrastruktur yang selamat dan memastikan orang kekal boleh bekerja dalam dunia digital yang semakin tidak menentu, semua ini tidak terasa seperti berita teknologi biasa. Ia terasa seperti pemampatan masa. Soalannya bukan lagi sekadar model mana yang membuat benchmark lebih baik. Soalan sebenar ialah: adakah dunia benar-benar rosak, atau kita sedang menyaksikan permulaan perubahan besar?

Jawapan saya sekarang mudah: dunia tidak tiba-tiba rosak. Tetapi dunia sedang disusun semula dengan kelajuan dan kekerasan yang melampaui ramai orang dari segi mental, ekonomi dan keselamatan.

Ringkasnya:

  • Apa yang kita lihat lebih menyerupai pembinaan semula yang tergesa-gesa terhadap kuasa, infrastruktur dan kepercayaan, bukannya keruntuhan total.
  • Keselamatan kekal sebagai lapisan asas, kerana AI di atas sistem yang rapuh terutamanya membawa kesilapan yang lebih pantas dan impak yang lebih besar.
  • Soalan utama bukan hanya model mana yang di hadapan, tetapi siapa yang mengawal cip, compute, platform, data dan rantaian bekalan.

Apa Yang Sebenarnya Sedang Memecut

Yang penting di sini bukan satu pelancaran model, tetapi interaksi lima kuasa:

  • modal dalam jumlah yang sangat besar
  • sumber compute yang terhad
  • permainan kuasa geopolitik
  • perhatian media sebagai tuil strategik
  • realiti teknikal bahawa perisian tidak pernah benar-benar siap dan tidak pernah benar-benar selamat

Apabila lima perkara ini bergerak serentak, lahirlah rasa pecutan berterusan. Itulah gambaran 2026. OpenAI menutup satu lagi pusingan pembiayaan besar pada 31 Mac 2026. Anthropic mengumumkan Series G pada 12 Februari 2026. xAI mengumpul modal baharu pada awal Januari. Google pula tidak perlu pun mewujudkan drama besar tentang pembiayaan, kerana mereka boleh membiayai dorongan AI melalui iklan, cloud, hardware dan kuasa pasaran sedia ada. Ini bukan lagi berita perisian biasa. Ini ialah isyarat perebutan infrastruktur.

Di sinilah beza antara hype dan struktur mula terasa bagi saya. Hype membuat bising. Struktur kekal. Yang penting bukan hanya siapa yang mempunyai demo terbaik, tetapi siapa yang mengawal model, compute, pengedaran, hardware dan kepercayaan pada masa yang sama.

Siapa Sedang Bermain Permainan Yang Mana

Jika kita melihat pemain AI utama dengan tenang, jelas bahawa mereka tidak bermain permainan yang sama. Dan perbezaan inilah yang menjadikan pasaran ini menarik serta relevan dari sudut pandang keselamatan.

OpenAI

OpenAI menguasai pengedaran. Ramai orang tidak berkata, “saya menggunakan LLM”, tetapi hanya berkata, “saya menggunakan ChatGPT”. Dengan idea “unified AI superapp” dan lapisan produk yang semakin padat terdiri daripada Codex, connector, perpustakaan fail, deep research dan fungsi-fungsi berkaitan, OpenAI cuba masuk dari bahagian consumer terus ke kerja harian. Dari sudut keselamatan, ini penting kerana satu tetingkap chat boleh dengan cepat menjadi titik tumpuan untuk identiti, sesi, fail, plugin dan kebenaran ejen.

Anthropic

Anthropic lebih banyak bermain melalui kepercayaan enterprise, kedekatan dengan pembangun dan naratif keselamatan. Claude Code, Computer Use, Cowork dan fokus terhadap model kerja yang lebih terkawal untuk syarikat menjadikan Claude kurang kelihatan seperti produk massa dan lebih seperti produk berasaskan kepercayaan. Pada pandangan saya, Anthropic menjual lebih daripada prestasi model: mereka menjual idea bahawa organisasi boleh membawa Claude lebih dekat kepada source code, workflow dan ruang membuat keputusan yang sensitif. Saya sudah mengulas Mythos dan Project Glasswing dengan lebih mendalam dalam artikel berasingan .

Google

Google sedang bermain permainan yang paling luas dan mungkin paling tahan lama. Di bahagian Gemini, kita dapat melihat seluruh benua produk yang merentang dari Workspace ke Pixel hingga DeepMind. Dengan Google Vids, AI dimasukkan ke dalam permukaan kerja harian dan bukan hanya dipamerkan sebagai demo yang mencolok. Pada masa yang sama, Google ialah salah satu daripada sedikit pemain yang mengawal dengan lebih banyak nasib compute mereka sendiri berkat Ironwood, generasi TPU ketujuh mereka. Sebab itulah saya masih melihat Google sebagai pemain yang paling dipandang rendah dalam perlumbaan ini.

xAI

xAI kelihatan lebih senyap, tetapi ia jauh daripada kecil. Dengan Colossus, Grok Business, Grok Enterprise dan hubungan rasmi dengan SpaceX, xAI juga sedang cuba menguasai infrastruktur dan perniagaan secara serius.

Yang menarik bagi saya di sini bukan hanya modelnya, tetapi tesis datacenter di sebaliknya. xAI menerangkan Colossus sebagai sejenis gigafactory of compute: dibina dalam 122 hari, kemudian digandakan kepada 200,000 GPU dalam 92 hari berikutnya, dengan roadmap ke arah kapasiti yang lebih besar lagi. Ini kelihatan kurang seperti pelancaran perisian klasik dan lebih seperti cubaan untuk mengawal bottleneck strategik sejak awal.

Sebagai pemerhatian pasaran, ini sangat mengingatkan saya kepada pola yang pernah kita lihat dalam syarikat-syarikat Musk. Tesla membina rangkaian Supercharger selama bertahun-tahun sebelum ramai pesaing benar-benar memahami nilai strategik lapisan infrastruktur itu. Dengan kilang penapisan litium di Texas, Tesla kemudian bergerak lebih jauh ke bahagian hulu yang kritikal dalam rantaian nilai bateri. xAI nampaknya mahu melakukan sesuatu yang serupa di bahagian compute: melatih model sambil membentuk lebih awal infrastruktur terhad yang menjadi asas kepada model-model itu. Apabila pesaing sedar betapa pentingnya lapisan ini, kelebihan biasanya bukan hanya pada teknologi, tetapi pada masa yang sudah berlalu.

Itu tidak secara automatik menjadikan xAI lebih baik. Tetapi ia menjadikan syarikat ini lebih fleksibel secara strategik daripada yang ramai sangka.

Apple

Dalam gambaran ini, Apple kelihatan lebih sebagai simptom daripada pemacu. Hakikat bahawa Apple akan menggunakan Gemini milik Google untuk timbunan Siri yang baharu menunjukkan dengan sangat jelas bahawa kuasa platform yang besar pun tidak menjamin kepimpinan model. Bagi pengguna dan pasukan keselamatan, ini tidak mempermudah apa-apa. Semakin banyak janji on-device, retorik private cloud compute dan teras model luaran dicampur bersama, semakin kabur pula ke mana sebenarnya data, konteks, log dan keputusan berakhir.

Mengapa Anthropic Terus Muncul Dalam Tajuk Berita

Jika empat bulan terakhir di sekitar Anthropic diringkaskan, kita mendapat aliran berita yang sangat padat: Claude Opus 4.6, Claude Sonnet 4.6, pusingan Series G, pengambilalihan Vercept, kerjasama baharu, Anthropic Institute, 100 juta dolar untuk Claude Partner Network, kebocoran Mythos di Fortune, kebocoran Claude Code di Bloomberg, khabar angin IPO, dan kemudian Project Glasswing pada 7 April.

Itu tidak secara automatik membuktikan wujudnya koreografi PR rahsia. Tetapi ia menunjukkan betapa konsistennya Anthropic menukar keterlihatan kepada kedudukan pasaran sepanjang 2026. Bagi syarikat yang pada masa sama menjual kepercayaan, kesediaan enterprise dan kemungkinan horizon IPO, keterlihatan bukan kesan sampingan. Ia adalah sebahagian daripada permainan.

Robot Humanoid Bukan Lagi Nota Kecil

Sementara syarikat seperti Anthropic, OpenAI dan Google bertarung dalam ruang model, tajuk berita dan workflow perisian, keupayaan yang sama juga sedang bergerak ke dunia fizikal. Dan perkara ini masih dipandang rendah, kerana ramai orang masih mengaitkan AI terutamanya dengan tetingkap chat, penjana imej dan pembantu coding.

Google DeepMind kini memaparkan Gemini, Veo, Imagen, Lyria dan Gemini Robotics secara bersebelahan. Pada masa yang sama, Boston Dynamics dan Google DeepMind mengumumkan kerjasama sekitar Atlas dan Gemini Robotics pada Januari 2026. Ini jauh lebih daripada sekadar detik pameran teknologi yang menarik. Ia menunjukkan bahawa logik foundation models perlahan-lahan sedang meninggalkan browser dan masuk ke dalam sistem fizikal.

Kita memang belum berada dalam dunia di mana esok pagi robot humanoid akan berdiri di sebelah kita di mana-mana. Tetapi kita jelas berada dalam fasa di mana kilang sedang menguji, penyelidikan dan hardware semakin rapat, dan robotik tidak lagi dibayangkan tanpa AI. Sesiapa yang bercakap tentang masa depan kerja sambil hanya memikirkan perisian pejabat, sedang melihat terlalu sempit.

Keselamatan Kekal Sebagai Lapisan Asas Yang Sebenarnya

Perkara yang paling banyak saya fikirkan dalam seluruh perbahasan ini bukan hanya perlumbaan model, tetapi apa makna semua ini terhadap keselamatan. Melihat sebentar pada piramid Maslow membantu di sini. Keselamatan berada sangat rendah di situ, biasanya pada tahap kedua dari bawah. Itulah perkara utamanya: keselamatan bukan ciri mewah yang ditambah kemudian. Ia ialah prasyarat supaya segala yang berada di atasnya boleh berfungsi dengan stabil. Ini benar untuk manusia dan juga benar untuk infrastruktur digital.

Dalam kerja harian saya, keselamatan tidak pernah bermaksud keselamatan sempurna. Ia lebih bermaksud ini:

  • memahami risiko
  • mengurangkan permukaan serangan
  • merancang mod kegagalan
  • mengehadkan impak
  • memastikan orang kekal berfungsi

Kita cuba mencapai tahap keselamatan setinggi mungkin sambil sedar bahawa tiada apa yang benar-benar selamat. Di situlah 2026 menjadi sangat tidak selesa. Kelajuan perubahan meningkat lebih pantas daripada keupayaan kita untuk mengejarnya. Kita tidak mempunyai cukup pembangun yang kuat, kita tidak mempunyai cukup orang keselamatan yang kuat, dan tentu sekali tidak mempunyai kapasiti yang cukup untuk menyemak gunung kod yang semakin membesar dan kini dihasilkan bukan hanya oleh manusia, tetapi juga oleh model. Internet tidak pernah benar-benar selamat. Yang baharu ialah kelajuan bagaimana ketidakselamatan kini menskalakan diri.

Internet Terasa Kurang Selamat Kerana Kelajuan Exploit Sedang Meningkat

Saya tidak percaya bahawa 2026 tiba-tiba menjadi kurang selamat kerana manusia lupa cara menulis perisian. Saya lebih percaya bahawa gabungan lebih banyak perisian, lebih banyak automasi, lebih banyak pergantungan, lebih banyak supply chain dan model yang lebih baik sedang memperlihatkan betapa rapuhnya semua ini sejak awal.

Apabila Anthropic menemui bug dalam ujian Mythos yang tersembunyi dalam sistem selama 16 atau 27 tahun, itu bukan cerita pinggiran yang pelik. Itu peringatan bahawa sistem digital penuh dengan hutang sejarah, andaian tersirat dan lapisan lama yang hampir tiada siapa benar-benar faham lagi. Sebab itulah satu peraturan operasi lama masih sangat penting bagi saya:

Saya lebih rela menggunakan beberapa alat yang benar-benar baik daripada banyak alat yang sederhana.

Setiap alat tambahan membawa:

  • token baharu
  • rahsia baharu
  • sesi browser baharu
  • library baharu
  • plugin baharu
  • rantaian kemas kini baharu
  • kebenaran baharu

dan bersama itu, cara-cara baharu untuk sesuatu berjalan salah.

Dalam dunia di mana model boleh membaca, menggabungkan, memprioritikan dan kadangkala mengeksploitasi lebih pantas daripada sebelumnya, mengecilkan stack kembali penting. Bukan kerana minimalisme kedengaran cantik, tetapi kerana kerumitan mencipta kos keselamatan yang sangat nyata.

Masalah Yang Lebih Besar Kini Ialah Masalah Kebenaran

Apa yang kini hampir lebih membimbangkan saya daripada kelemahan klasik ialah masalah epistemik: apa yang masih nyata? Dulu imej sekurang-kurangnya masih agak berguna sebagai bukti. Video lebih-lebih lagi.

Hari ini kita hidup dalam dunia di mana:

  • imej sintetik boleh dihasilkan dalam beberapa minit
  • suara boleh diklon secara meyakinkan
  • video boleh dipalsukan dengan sangat meyakinkan
  • ribuan subhalaman SEO boleh dijana secara automatik
  • ruang pendapat yang utuh boleh dipenuhi secara tiruan

Bagi keselamatan, ini ialah perubahan asas. Keselamatan kini bukan lagi sekadar:

  • adakah endpoint saya bersih?
  • adakah kata laluan saya kuat?
  • adakah rangkaian saya tersegmen?

Ia juga bermaksud:

  • adakah saya masih boleh mempercayai sumber itu?
  • adakah saya boleh mengenal pasti bukti yang dimanipulasi?
  • adakah saya boleh membuat keputusan berdasarkan isyarat sebenar?
  • saluran mana yang kekal boleh dipercayai semasa insiden?

Ini bukan lagi masalah akademik. Jika syarikat semakin bergantung pada ejen AI, komunikasi automatik dan kandungan sintetik, pusat masalah beralih daripada “melindungi sistem” kepada “melindungi sistem, identiti, keputusan dan persepsi terhadap realiti.”

Kepercayaan Itu Sendiri Kini Menjadi Permukaan Serangan

Satu lagi perkara yang masih terlalu jarang dibincangkan ialah kepercayaan kini lebih besar daripada kriptografi dan peraturan rangkaian yang kemas. Ia sudah menjadi persoalan platform, pembekal dan pada tahap tertentu juga negara.

Meredith Whittaker dari Signal merumuskan perkara ini dengan sangat baik di Bloomberg pada Januari 2026. Intinya ialah ejen AI adalah “pretty perilous” untuk aplikasi selamat kerana mereka memerlukan kebenaran yang mendalam, akses data yang luas dan selalunya penglihatan sistem menyeluruh terhadap kandungan untuk melakukan kerja mereka. Itulah sebabnya isu ini sangat penting dari sudut keselamatan. Walaupun penyulitan kekal kukuh secara matematik, nilainya di dunia nyata berkurang apabila sistem operasi, ejen atau platform di sekelilingnya sudah boleh melihat semuanya dalam bentuk plaintext.

Dari perspektif ini, ejen bukan sekadar “chatbot yang klik sedikit”. Ia lebih seperti pekerja baharu yang boleh diprogram di dalam syarikat. Ia membaca email, melihat dokumen, membuka sesi browser, memanggil API, mengetahui kalendar, menggunakan token, memulakan workflow dan bahkan boleh menulis kod atau tiket. Jika ejen seperti ini dikompromi, didelegasikan dengan teruk atau sekadar diberi terlalu banyak kebenaran, penyerang tidak lagi berada di luar pintu. Penyerang sudah berada di dalam proses.

Kemudian ada lapisan politik. Apabila Apple terpaksa menarik balik penyulitan iCloud yang lebih kukuh di United Kingdom kerana tekanan sekitar backdoor, itu bukan sekadar cerita privasi. Itu peringatan bahawa janji keselamatan sentiasa bergantung juga pada hubungan kuasa. Dan apabila Apple pada masa yang sama bergantung pada Google Gemini untuk Siri, gambarnya menjadi lebih jelas lagi: kepercayaan kini bergantung pada rantaian pergantungan, bukan hanya pada satu nama produk.

Geopolitik Kembali Menjadi Infrastruktur

Titik paling keras pada masa ini ialah betapa langsungnya peristiwa geopolitik sekali lagi mempengaruhi realiti teknikal. Helium ialah contoh yang baik.

Pada 12 Mac 2026, Tom’s Hardware melaporkan bahawa pengeluaran helium di kompleks Ras Laffan di Qatar telah terganggu selepas serangan dron Iran. Menurut laporan itu, lokasi tersebut offline pada 2 Mac dan buat sementara waktu mengeluarkan kira-kira 30 peratus bekalan helium global daripada pasaran. Ini menunjukkan betapa nipisnya benang antara perang, kimia, pembuatan semikonduktor dan infrastruktur AI.

Versi ringkasnya brutal:

serangan dron -> kekurangan helium -> tekanan pada pengeluaran cip -> kurang ruang untuk hardware AI -> lebih banyak tekanan dalam dunia compute yang sudah terlalu panas

Apabila gas proses kritikal menjadi langka, kita tidak bercakap tentang kisah makro yang abstrak. Kita sedang bercakap tentang bottleneck yang sangat nyata dalam dunia yang memerlukan semakin banyak cip pada masa yang sama. Ini bukan soal mereduksi keseluruhan cerita kepada satu mesin ASML yang “memerlukan helium”. Ini soal seluruh rantaian: litografi, penyejukan, persekitaran proses, fab, packaging, kawalan eksport, elektrik dan datacenter. AI terasa digital, tetapi ia bergantung pada perkara yang sangat fizikal.

Itulah salah satu sebab paling kuat, bagi saya, untuk berhenti menganggap AI hanya sebagai cerita aplikasi atau model. AI kini ialah:

  • dasar tenaga
  • rantaian bekalan
  • pembuatan cip
  • kapasiti cloud
  • dasar luar
  • strategi industri

China Sedang Membina Kedaulatan, Bukan Sekadar Model

Ramai orang di Barat membaca momen DeepSeek terutamanya sebagai peristiwa pasaran dan media. Saya fikir lapisan yang lebih penting terletak lebih dalam.

Reuters melaporkan pada akhir Februari 2026 bahawa DeepSeek tidak menunjukkan model V4 yang akan datang kepada pembuat cip AS untuk pengoptimuman, tetapi telah berkongsi lebih awal dengan rakan domestik seperti Huawei. Pada masa yang sama terus muncul laporan bahawa Huawei sedang cuba membina stack domestik dengan serius di bawah lapisan model melalui sistem Ascend dan Atlas yang baharu. Sama ada semua janji prestasi itu benar-benar akan terbukti atau tidak hampir menjadi perkara kedua. Arah tuju sangat jelas: China tidak mahu hanya model. China mahu stack sendiri.

Itulah yang menjadikan beberapa tahun mendatang sangat menarik. Pertarungan sebenar bukan antara chatbot, tetapi antara blok infrastruktur.

Eropah Berisiko Lebih Banyak Menonton Daripada Membina

Eropah masih mempunyai penyelidikan yang baik, universiti yang baik, industri yang baik dan tradisi peraturan yang munasabah. Tetapi jika saya jujur, Eropah sekarang sedikit kelihatan seperti Apple dalam kalangan benua:

  • kuat dari segi cita-cita
  • kuat dari segi reka bentuk, etika dan peraturan
  • lebih lemah dalam model, cip dan kuasa platform

Frasa ini memang sengaja agak tajam, tetapi saya rasa arah alirannya nyata. Ketika AS menolak model, cloud, cip dan modal, dan China menolak kedaulatan serta stack domestik, Eropah berisiko menghabiskan masa untuk mengulas, mengawal selia dan kemudian menggunakan produk yang dibina di tempat lain. Dari sudut keselamatan, perkara ini tidak remeh, kerana pergantungan sentiasa juga isu keselamatan.

Di Antara Hype Dan Ketakutan, Biasanya Ada Kepentingan

Landskap media sendiri kini sudah menjadi sebahagian daripada sistem. Di Amerika Syarikat, AI sering dijual dengan nada yang hampir keagamaan tentang masa depan. Itu tidak mengejutkan. Ramai penerima manfaat terbesar gelombang ini berada di sana: vendor model, platform cloud, pereka cip, venture capital, pasaran awam, pembeli pertahanan dan pelanggan enterprise.

Di Eropah, perbahasan selalunya berbunyi berbeza: lebih banyak ketakutan tentang kehilangan pekerjaan, lebih banyak kebimbangan peraturan, lebih banyak amaran tentang pergantungan dan kehilangan kelajuan. Itu juga tidak mengejutkan, kerana Eropah mempunyai kurang upside dan lebih banyak pergantungan dalam banyak lapisan platform asas.

Saya fikir kedua-dua refleks ini menjadi berbahaya apabila disederhanakan terlalu jauh. Hype yang naif mengabaikan kerosakan, penumpuan kuasa dan risiko keselamatan. Ketakutan murni pula mengabaikan alat, produktiviti dan peluang untuk akhirnya membina sistem yang sebelum ini tidak pernah benar-benar sempat dibina dengan baik. Sebab itu saya sentiasa kembali kepada jalan tengah yang lebih sukar: kekal berminat tanpa menjadi naif, menamakan risiko tanpa membeku, dan bertanya di sebalik setiap tajuk besar siapa yang sedang menceritakan kisah ini dan kepentingan apa yang bersamanya.

Jadi, Adakah Dunia Ini Rosak?

Jawapan saya ialah tidak. Tetapi dunia sedang bergerak dengan kasar. Rasa bahawa semuanya berlaku serentak ini menghasilkan beban berlebihan bagi ramai orang.

Kita sedang mengalami semua ini pada masa yang sama:

  • hype AI
  • kemajuan model yang nyata
  • modal yang terlalu panas
  • masalah keselamatan
  • geopolitik
  • kehilangan kepercayaan terhadap kandungan media
  • kemajuan dalam robotik
  • orang ramai yang semakin sukar membezakan antara substansi dan pertunjukan

Itu terlalu banyak, terutama jika pada masa yang sama seseorang juga sedang mengurus hidup biasa, kerja, keluarga, syarikat atau tanggungjawab terhadap infrastruktur. Namun begitu, saya tetap menganggap berbahaya jika tempoh ini dibaca hanya sebagai kisah keruntuhan, kerana itu menyembunyikan tugas sebenar. Soalannya bukan bagaimana untuk menghentikan perubahan. Soalannya ialah:

  • sistem mana yang benar-benar mahu saya percayai?
  • pergantungan mana yang perlu saya kurangkan?
  • alat mana yang benar-benar saya perlukan?
  • asas keselamatan mana yang perlu diperkeras?
  • bagaimana saya kekal mampu membuat keputusan dalam dunia di mana kelajuan dan penipuan meningkat bersama?

Apa Yang Syarikat Perlu Perkeras Sekarang

Jika saya ringkaskan semua ini kepada kerja praktikal, jawapannya menjadi sangat tidak glamor. Ini bukan soal melempar lima alat AI baharu ke dalam setiap pasukan dan berharap masa depan akan muncul secara ajaib. Ini soal membina beberapa perkara dengan jauh lebih sedar daripada sebelumnya.

  • Jangan jalankan ejen AI di bawah akaun pengguna biasa. Berikan mereka identiti berasingan, scope sempit, token jangka pendek dan had kelulusan yang jelas untuk email, deploy kod, perubahan admin dan pembayaran.
  • Ringkaskan landskap alat daripada terus menambah SaaS baharu setiap minggu. Setiap aplikasi AI baharu membawa lebih banyak sesi, sambungan browser, plugin, rahsia, log dan pergantungan vendor.
  • Log ejen dengan betul, bukan hanya pengguna. Yang penting ialah panggilan alat, capaian fail, kelulusan, sambungan keluar, perubahan pada tiket atau kod, dan peralihan daripada prompt kepada tindakan.
  • Bina playbook pengesahan untuk kandungan sintetik. Kelulusan pembayaran, arahan HR, permintaan admin dan komunikasi insiden perlu disahkan melalui saluran kedua.
  • Anggap patching dan exposure management jauh lebih hampir kepada masa nyata, terutama untuk browser, identiti, VPN, firewall, alat kolaborasi dan perkhidmatan yang terdedah ke internet.
  • Latih recovery seolah-olah model, connector atau vendor boleh gagal esok. Itu bermaksud laluan eksport, saluran komunikasi gantian dan kill switch yang bersih untuk ejen.
  • Soal pembekal kritikal dengan lebih keras. Di manakah sebenarnya data, log, prompt, memori, kunci, opt-out latihan dan pilihan forensik berada?

Semua ini kedengaran jauh kurang glamor daripada Mythos, Gemini, ChatGPT atau Grok. Tetapi tepat di sinilah akan ditentukan sama ada sesebuah syarikat menggunakan gelombang seterusnya sebagai alat atau tenggelam di bawah kerumitan sendiri. Dunia tidak sekadar sedang berakhir. Ia menjadi lebih keras, lebih padat dan lebih pantas. Siapa yang mengukuhkan asas sekarang masih akan mempunyai kebebasan untuk benar-benar mendapat manfaat daripada AI nanti.

Jumpa lagi,
Joe

Sumber dan Bacaan Lanjut

© 2026 trueNetLab