
এআই হাইপ, যুদ্ধ ও নিরাপত্তা দুর্বলতা: দুনিয়া কি ভেঙে গেছে, নাকি শুধু নতুন করে গড়া হচ্ছে?
সূচিপত্র
কয়েক সপ্তাহ আগে আমি আরেকটি লেখায় লিখেছিলাম যে পৃথিবী বেশিরভাগ মানুষের ধারণার চেয়ে অনেক দ্রুত বদলাচ্ছে। আজ আমি সেই চিন্তাটাকে আরও স্পষ্ট করে বলতে চাই।
ক্লায়েন্ট আর টিমের সঙ্গে কথা বলতে গিয়ে একই প্রশ্ন বারবার ফিরে আসে: এর কতটা সত্যিকারের অগ্রগতি, আর কতটা শুধু ভালো মার্কেটিং-দেওয়া শব্দ? যদি ২০২৬ সালের শুরু থেকে খবর দেখে থাকেন, তাহলে খুব সহজেই মনে হয় সবকিছু একই সঙ্গে বদলাচ্ছে। OpenAI, Google, Anthropic আর xAI সবার সামনে দৌড়াচ্ছে। হিউম্যানয়েড রোবট ডেমো থেকে কারখানায় যাচ্ছে। যুদ্ধ আর ভূরাজনৈতিক চাপ চিপ আর গ্যাসের সাপ্লাই চেইনে আঘাত করছে। একই সময়ে প্রায় প্রতিদিন নতুন সিকিউরিটি দুর্বলতা বেরোচ্ছে, আর প্রতিটি নতুন টুল শুধু বেশি প্রোডাক্টিভিটিই আনছে না, বরং বেশি পারমিশন, বেশি ডেটা-ফ্লো আর বড় অ্যাটাক সারফেসও আনছে।
যারা নিরাপদ অবকাঠামো তৈরি করা আর অনিশ্চিত ডিজিটাল দুনিয়ায় মানুষকে কাজ করার অবস্থায় রাখা নিয়ে কাজ করি, তাদের কাছে এটি সাধারণ টেক-নিউজের মতো লাগে না। এটি সময় সংকুচিত হয়ে যাওয়ার মতো লাগে। এখন আর শুধু কোন মডেল ভালো benchmark করছে, সেটাই প্রশ্ন নয়। আসল প্রশ্ন হলো: দুনিয়া কি সত্যিই ভেঙে গেছে, নাকি আমরা এক বিশাল রূপান্তরের শুরু দেখছি?
আমার বর্তমান উত্তর খুব সোজা: দুনিয়া হঠাৎ ভেঙে পড়েনি। কিন্তু এটাকে এমন গতি আর কঠোরতায় নতুন করে সাজানো হচ্ছে, যা অনেক মানুষকে মানসিকভাবে, অর্থনৈতিকভাবে এবং সিকিউরিটির দৃষ্টিতে অতিক্রম করে যাচ্ছে।
সংক্ষেপে:
- যা আমরা দেখছি, তা পৃথিবীর শেষের চেয়ে ক্ষমতা, অবকাঠামো আর বিশ্বাসের তাড়াহুড়োর পুনর্গঠনের মতো বেশি।
- সিকিউরিটি এখনো বেস লেয়ার, কারণ দুর্বল সিস্টেমের ওপর এআই মানে সাধারণত দ্রুততর ভুল আর বড় ক্ষতি।
- মূল প্রশ্ন শুধু কোন মডেল এগিয়ে আছে তা নয়, বরং চিপ, compute, প্ল্যাটফর্ম, ডেটা আর সাপ্লাই চেইন কার নিয়ন্ত্রণে আছে।
আসলে কী দ্রুততর হচ্ছে
এখানে মূল বিষয় কোনো একক মডেল লঞ্চ নয়, বরং পাঁচটি শক্তির একসঙ্গে কাজ করা:
- বিপুল পরিমাণ পুঁজি
- সীমিত compute সম্পদ
- ভূরাজনৈতিক ক্ষমতার খেলা
- কৌশলগত lever হিসেবে মিডিয়ার মনোযোগ
- এই প্রযুক্তিগত বাস্তবতা যে সফটওয়্যার কখনোই পুরোপুরি শেষ হয় না এবং পুরোপুরি নিরাপদও হয় না
এই পাঁচটি জিনিস একসঙ্গে নড়লে স্থায়ী ত্বরণের অনুভূতি তৈরি হয়। ২০২৬ সালের চিত্র সেটাই। OpenAI ৩১ মার্চ ২০২৬ আরেকটি বিশাল ফান্ডিং রাউন্ড বন্ধ করেছে। Anthropic ১২ ফেব্রুয়ারি ২০২৬-এ তাদের Series G ঘোষণা করেছে। xAI জানুয়ারির শুরুতে নতুন পুঁজি তুলেছে। Google-এর আবার এমনকি নাটকীয় ফান্ডিং হেডলাইনও দরকার হয় না, কারণ তারা বিজ্ঞাপন, ক্লাউড, হার্ডওয়্যার আর আগের বাজার-শক্তির ভরসায় নিজেদের AI push চালাতে পারে। এগুলো আর সাধারণ সফটওয়্যার নিউজ নয়। এগুলো অবকাঠামো দখলের সংকেত।
এখানেই আমার কাছে হাইপ আর স্ট্রাকচারের পার্থক্য শুরু হয়। হাইপ শব্দ করে। স্ট্রাকচার থেকে যায়। তাই গুরুত্বপূর্ণ বিষয় শুধু কার ডেমো ভালো, তা নয়; বরং কে একই সঙ্গে মডেল, compute, বিতরণ, হার্ডওয়্যার আর বিশ্বাস নিয়ন্ত্রণ করছে।
কে কোন খেলা খেলছে
বড় AI প্লেয়ারদের ঠান্ডা মাথায় দেখলে বোঝা যায়, সবাই একই খেলা খেলছে না। আর এই পার্থক্যটাই বাজারকে সিকিউরিটির দৃষ্টিতে এত গুরুত্বপূর্ণ আর আকর্ষণীয় করে।
OpenAI
OpenAI ডিস্ট্রিবিউশন দখল করেছে। অনেকেই বলেন না যে তারা LLM ব্যবহার করছেন; তারা সোজা বলেন যে তারা ChatGPT ব্যবহার করছেন। “unified AI superapp” ধারণা আর Codex, connectors, file libraries, deep research এবং অন্যান্য ফিচারের ঘন product layer দিয়ে OpenAI consumer দিক থেকে প্রতিদিনের কাজে ঢুকে পড়তে চাইছে। সিকিউরিটির দৃষ্টিতে এটি গুরুত্বপূর্ণ, কারণ একটি chat window খুব দ্রুত identity, session, file, plugin আর agent permission-এর কেন্দ্র হয়ে যেতে পারে।
Anthropic
Anthropic অনেক বেশি enterprise trust, developer proximity আর security narrative-এর ওপর খেলছে। Claude Code, Computer Use, Cowork এবং কোম্পানির জন্য আরও controllable কাজের মডেলে জোর Claude-কে mass product-এর চেয়ে trust product-এর মতো করে তোলে। আমার চোখে Anthropic শুধু model performance বিক্রি করছে না। তারা এই ধারণাটাও বিক্রি করছে যে প্রতিষ্ঠানগুলো Claude-কে source code, workflow আর sensitive decision space-এর আরও কাছে আনতে পারে। Mythos আর Project Glasswing নিয়ে আমি একটি আলাদা লেখায় আরও বিস্তারিত লিখেছি।
Google সবচেয়ে চওড়া এবং সম্ভবত সবচেয়ে টেকসই খেলা খেলছে। Gemini দিকটায় Workspace থেকে Pixel আর DeepMind পর্যন্ত বিস্তৃত একটি product continent দেখা যায়। Google Vids-এর মাধ্যমে AI-কে শুধু চমকপ্রদ demo হিসেবে নয়, বরং সাধারণ কাজের ইন্টারফেসে ঢোকানো হচ্ছে। একই সঙ্গে Google তাদের সপ্তম TPU generation Ironwood-এর কারণে এমন অল্প কিছু প্লেয়ারের একজন, যারা নিজেদের compute destiny অনেক বেশি নিয়ন্ত্রণ করে। এই কারণেই আমি এখনো মনে করি Google এই দৌড়ে সবচেয়ে বেশি underrated প্লেয়ার।
xAI
xAI তুলনামূলকভাবে শান্ত দেখায়, কিন্তু ছোট নয়। Colossus, Grok Business, Grok Enterprise আর এখন অফিসিয়াল SpaceX-সংযোগসহ xAI-ও সিরিয়াসভাবে infrastructure এবং business layer দখল করতে চাইছে।
আমার কাছে এখানে শুধু model নয়, এর পেছনের datacenter thesis-টাই বেশি আকর্ষণীয়। xAI, Colossus-কে এক ধরনের gigafactory of compute হিসেবে তুলে ধরে: ১২২ দিনে তৈরি, তারপর আরও ৯২ দিনে ২০০,০০০ GPU-তে দ্বিগুণ, এবং এরপর আরও বড় সক্ষমতার roadmap। এটি আমার কাছে একটি সাধারণ software launch-এর চেয়ে কৌশলগত bottleneck-কে খুব তাড়াতাড়ি নিয়ন্ত্রণে আনার প্রচেষ্টা হিসেবে বেশি লাগে।
বাজার পর্যবেক্ষণ হিসেবে এটি আমাকে Musk কোম্পানিগুলোর একটা পুরোনো প্যাটার্নের কথা মনে করিয়ে দেয়। Tesla অনেক আগে থেকেই Supercharger নেটওয়ার্ক তৈরি করেছে, যখন বহু প্রতিদ্বন্দ্বী এখনো সেই অবকাঠামোর কৌশলগত গুরুত্ব পুরোপুরি বুঝতেই পারেনি। Texas-এর lithium refinery-এর মাধ্যমে Tesla ব্যাটারির value chain-এর আরও upstream-এ ঢুকে গেছে। xAI compute side-এ তেমন কিছু করতে চাইছে বলেই মনে হয়: শুধু model train করা নয়, সেই দুষ্প্রাপ্য infrastructure-টাকেও আগেভাগে গড়ে তোলা, যার ওপর model টিকে আছে। প্রতিযোগীরা যখন বুঝবে এই layer কতটা গুরুত্বপূর্ণ, তখন সুবিধা শুধু প্রযুক্তিতে নয়, বরং ইতিমধ্যে পেরিয়ে যাওয়া সময়েও থাকবে।
এতে xAI স্বয়ংক্রিয়ভাবে ভালো হয়ে যায় না। কিন্তু এতে কোম্পানিটি কৌশলগতভাবে অনেকের ধারণার চেয়ে বেশি flexible হয়ে ওঠে।
Apple
এই ছবিতে Apple বরং driver-এর চেয়ে symptom-এর মতো। Apple নতুন Siri stack-এর জন্য Google-এর Gemini ব্যবহার করবে — এই তথ্যটাই যথেষ্ট দেখায় যে বিশাল platform power থাকলেই model lead পাওয়া যায় না। ব্যবহারকারী আর security team-এর জন্যও এতে কিছু সহজ হয় না। যত বেশি on-device প্রতিশ্রুতি, private cloud compute কথাবার্তা আর বাইরের model core একসঙ্গে মিশে যায়, তত কম পরিষ্কার থাকে ডেটা, context, log আর decision আসলে কোথায় যাচ্ছে।
কেন Anthropic বারবার শিরোনামে
Anthropic-কে ঘিরে গত চার মাসকে যদি সংকুচিত করি, তাহলে আমরা অস্বাভাবিকভাবে ঘন একটি news stream দেখি: Claude Opus 4.6, Claude Sonnet 4.6, Series G, Vercept acquisition, নতুন partnership, Anthropic Institute, Claude Partner Network-এর জন্য 100 million dollars, Fortune-এ Mythos leak, Bloomberg-এ Claude Code leak, IPO speculation, আর তারপর ৭ এপ্রিল Project Glasswing।
এতে গোপন PR choreography আছে — এমনটা স্বয়ংক্রিয়ভাবে প্রমাণ হয় না। কিন্তু এটি স্পষ্ট করে যে Anthropic ২০২৬ সালে visibility-কে market position-এ কতটা ধারাবাহিকভাবে বদলে দিচ্ছে। যে কোম্পানি একই সঙ্গে trust, enterprise readiness আর possible IPO horizon বিক্রি করছে, তাদের জন্য visibility side effect নয়। সেটাই খেলার অংশ।
হিউম্যানয়েড রোবট আর ফুটনোট নয়
Anthropic, OpenAI আর Google-এর মতো কোম্পানিগুলো যখন model, headline আর software workflow নিয়ে লড়ছে, তখন সেই একই ক্ষমতাগুলো physical world-এও চলে যাচ্ছে। আর এটিই এখনো যথেষ্ট অবমূল্যায়িত, কারণ অনেকেই এখনো AI বলতে chat window, image generator আর coding assistant-ই ভাবেন।
Google DeepMind এখন Gemini, Veo, Imagen, Lyria আর Gemini Robotics-কে পাশাপাশি দেখাচ্ছে। একই সময়ে Boston Dynamics আর Google DeepMind ২০২৬ সালের জানুয়ারিতে Atlas আর Gemini Robotics ঘিরে partnership ঘোষণা করেছে। এটি শুধু কোনো সুন্দর tech-show মুহূর্ত নয়। এটি দেখাচ্ছে যে foundation model-এর logic ধীরে ধীরে browser ছেড়ে physical system-এ ঢুকছে।
আমরা এখনো সেই দুনিয়ায় নেই যেখানে কাল সকালেই সর্বত্র humanoid robot আমাদের পাশে দাঁড়িয়ে থাকবে। কিন্তু আমরা পরিষ্কারভাবে এমন এক পর্যায়ে আছি যেখানে কারখানাগুলো পরীক্ষা করছে, গবেষণা আর hardware কাছাকাছি আসছে, এবং robotics-কে AI ছাড়া আর ভাবা হচ্ছে না। কাজের ভবিষ্যৎ নিয়ে কথা বলে যে ব্যক্তি শুধু office software-এর কথা ভাবে, সে ছবিটা খুব ছোট করে দেখছে।
সিকিউরিটি এখনো আসল ভিত্তি
এই পুরো বিতর্কে আমাকে সবচেয়ে বেশি ভাবায় শুধু model race নয়, বরং এগুলোর সবকিছুর security-র জন্য মানে কী। এখানে Maslow pyramid-এর দিকে এক ঝলক তাকানো কাজে দেয়। সেখানে security নিচের দিকেই থাকে, সাধারণত নিচ থেকে দ্বিতীয় স্তরে। এই জায়গাটাই আসল: security কোনো luxury feature নয় যেটা পরে যোগ করা যায়। এটি এমন একটি precondition, যার ছাড়া ওপরের অন্য কিছু স্থিতিশীলভাবে কাজ করতে পারে না। এটি মানুষের জন্য যেমন সত্য, ডিজিটাল অবকাঠামোর জন্যও তেমন সত্য।
আমার দৈনন্দিন কাজে security কখনোই perfect security বোঝায় না। বরং এর মানে হলো:
- ঝুঁকি বোঝা
- attack surface কমানো
- failure mode পরিকল্পনা করা
- ক্ষতি সীমিত করা
- মানুষকে operational রাখা
আমরা যতটা সম্ভব উচ্চ নিরাপত্তা চাই, অথচ জানি কিছুই পুরোপুরি নিরাপদ হবে না। ঠিক এই কারণেই ২০২৬ এত অস্বস্তিকর। পরিবর্তনের গতি আমাদের তা সামলানোর ক্ষমতার চেয়ে দ্রুত বাড়ছে। আমাদের কাছে যথেষ্ট শক্তিশালী developer নেই, যথেষ্ট শক্তিশালী security মানুষ নেই, আর ক্রমবর্ধমান code mountain ঠিকমতো review করার মতো ক্ষমতাও নেই — যেটা এখন শুধু মানুষ নয়, model-ও তৈরি করছে। ইন্টারনেট কখনোই পুরোপুরি নিরাপদ ছিল না। নতুন হলো, insecurity এখন কত দ্রুত scale করছে।
ইন্টারনেট কম নিরাপদ মনে হচ্ছে, কারণ exploit-এর গতি বাড়ছে
আমি মনে করি না যে ২০২৬ হঠাৎ কম নিরাপদ হয়ে গেছে কারণ মানুষ software লিখতে ভুলে গেছে। বরং আমার মনে হয় বেশি software, বেশি automation, বেশি dependency, বেশি supply chain আর ভালো model-এর সমন্বয় আমাদের দেখাচ্ছে যে এগুলো সবসময়ই কতটা fragile ছিল।
যখন Anthropic, Mythos testing-এ এমন bug খুঁজে পায় যা ১৬ বা ২৭ বছর systems-এর ভেতর লুকিয়ে ছিল, তখন সেটা কোনো অদ্ভুত সাইড-স্টোরি নয়। এটা মনে করিয়ে দেয় যে ডিজিটাল সিস্টেম historical debt, implicit assumption আর পুরোনো layer-এ ভরা, যেগুলো প্রায় কেউই এখন আর গভীরভাবে বোঝে না। সেই কারণেই আমার কাছে একটা পুরোনো operational rule এখনো খুব গুরুত্বপূর্ণ:
আমি অনেক মাঝারি টুলের বদলে কয়েকটা ভালো টুল ব্যবহার করতে চাই।
প্রতিটি অতিরিক্ত টুল নিয়ে আসে:
- নতুন token
- নতুন secret
- নতুন browser session
- নতুন library
- নতুন plugin
- নতুন update chain
- নতুন permission
আর তার সঙ্গে নতুনভাবে কিছু ভুল হওয়ার সম্ভাবনা।
এমন এক দুনিয়ায় যেখানে model আগের চেয়ে দ্রুত পড়তে, মিলাতে, অগ্রাধিকার ঠিক করতে, আর কখনো exploit করতেও পারে, সেখানে stack minimization আবার গুরুত্বপূর্ণ হয়ে ওঠে। minimalism শুনতে সুন্দর বলে নয়, বরং complexity খুব বাস্তব security cost তৈরি করে বলেই।
এখন সবচেয়ে বড় সমস্যা সত্যের সমস্যা
ক্লাসিক vulnerability-এর চেয়েও যা এখন আমাকে প্রায় বেশি চিন্তায় ফেলে, সেটা হলো epistemic problem: বাস্তব আসলে কী রইল? আগে একটা ছবি অন্তত কোনো না কোনোভাবে প্রমাণ হিসেবে কাজ করত। ভিডিও তো আরও বেশি।
আজ আমরা এমন এক পৃথিবীতে বাস করছি যেখানে:
- synthetic image মিনিটের মধ্যে তৈরি করা যায়
- কণ্ঠস্বর বিশ্বাসযোগ্যভাবে clone করা যায়
- ভিডিও শক্তভাবে fake করা যায়
- হাজার হাজার SEO subpage স্বয়ংক্রিয়ভাবে তৈরি করা যায়
- পুরো opinion space কৃত্রিমভাবে ভরে ফেলা যায়
Security-র জন্য এটা একটা মৌলিক পরিবর্তন। Security এখন আর শুধু এই প্রশ্ন নয়:
- আমার endpoint কি পরিষ্কার?
- আমার password কি শক্তিশালী?
- আমার network কি segmented?
এখন এর মানে এটাও:
- আমি কি এখনো উৎসকে বিশ্বাস করতে পারি?
- আমি কি manipulated evidence চিনতে পারি?
- আমি কি real signal-এর ওপর ভিত্তি করে decision নিতে পারি?
- incident-এর সময় কোন channel এখনো বিশ্বাসযোগ্য থাকে?
এটা আর একাডেমিক সমস্যা নয়। যদি কোম্পানিগুলো AI agent, automated communication আর synthetic content-এর ওপর বেশি করে নির্ভর করতে থাকে, তাহলে সমস্যার কেন্দ্র “system protect করা” থেকে সরে গিয়ে “system, identity, decision আর reality perception protect করা”-তে চলে যায়।
বিশ্বাস নিজেই attack surface হয়ে উঠছে
আরেকটি বিষয় যেটা এখনো খুব কম আলোচিত, সেটা হলো trust এখন শুধু cryptography বা পরিষ্কার network rule-এর চেয়ে বড় বিষয়। এটা platform, vendor, আর কিছুটা state-এর প্রশ্নেও পরিণত হয়েছে।
Signal-এর Meredith Whittaker ২০২৬ সালের জানুয়ারিতে Bloomberg-এ এটা খুব পরিষ্কারভাবে বলেছিলেন। তাঁর মূল বক্তব্য ছিল যে AI agent secure app-এর জন্য “pretty perilous”, কারণ কাজ করতে তাদের deep permission, broad data access, আর অনেক সময় system-wide visibility দরকার হয়। সিকিউরিটির দৃষ্টিতে এই কারণেই বিষয়টা এত গুরুত্বপূর্ণ। Encryption গাণিতিকভাবে যতই শক্তিশালী থাকুক, যদি operating system, agent বা surrounding platform আগেই সব plaintext-এ দেখতে পারে, তাহলে তার বাস্তব মূল্য কমে যায়।
এই দৃষ্টিকোণ থেকে agent কেবল “একটু ক্লিক করা chatbot” নয়। বরং কোম্পানির ভেতরে একটি নতুন programmable employee। সে mail পড়ে, document দেখে, browser session খোলে, API call করে, calendar জানে, token ব্যবহার করে, workflow চালায়, এমনকি code বা ticket-ও লিখতে পারে। এমন agent compromise হলে, ভুলভাবে delegate হলে, বা অতিরিক্ত permission পেলে attacker আর দরজার বাইরে থাকে না। সে তখন process-এর ভেতরেই থাকে।
এরপর আসে রাজনৈতিক layer। UK-তে যখন Apple-কে stronger iCloud encryption সরিয়ে নিতে হয়েছিল backdoor-এর চাপের কারণে, সেটা শুধু privacy story ছিল না। এটা মনে করিয়ে দিয়েছিল যে security promise সবসময় power relationship-এর ওপরও নির্ভর করে। আর Apple যখন একই সময়ে Siri-এর জন্য Google Gemini-র ওপর ভর করে, তখন ছবিটা আরও পরিষ্কার হয়: আজ trust শুধু product name-এর ওপর নয়, dependency chain-এর ওপর দাঁড়িয়ে আছে।
ভূরাজনীতি আবার অবকাঠামো হয়ে উঠেছে
এই মুহূর্তে সবচেয়ে কঠিন বিষয় হলো, geopolitical ঘটনারা কীভাবে আবার সরাসরি technical reality-কে আঘাত করছে। Helium তার ভালো উদাহরণ।
১২ মার্চ ২০২৬-এ Tom’s Hardware রিপোর্ট করেছিল যে কাতারের Ras Laffan complex-এ helium production, Iranian drone attack-এর পর বিঘ্নিত হয়েছিল। সেই রিপোর্ট অনুযায়ী, সাইটটি ২ মার্চ offline হয়ে যায়, এবং সাময়িকভাবে বিশ্বব্যাপী helium supply-এর প্রায় ৩০ শতাংশ বাজার থেকে বেরিয়ে যায়। এটিই দেখায় যুদ্ধ, রসায়ন, semiconductor manufacturing আর AI infrastructure-এর মধ্যে সুতোটা কতটা পাতলা হয়ে গেছে।
এর ছোট ও নির্মম চেইনটা এমন:
drone strike -> helium shortage -> chip production-এর ওপর চাপ -> AI hardware-এর জন্য কম margin -> আগেই overheated compute world-এ আরও stress
যখন critical process gas কমে যায়, তখন আমরা কোনো abstract macro story নিয়ে কথা বলছি না। আমরা খুব বাস্তব bottleneck-এর কথা বলছি, এমন এক সময়ে যখন পৃথিবীর একসঙ্গে আরও বেশি chip দরকার। এটা পুরো গল্পকে শুধু একটি ASML machine-এর “helium লাগে” — এই পর্যায়ে নামিয়ে আনা নয়। এটা পুরো chain-এর ব্যাপার: lithography, cooling, process environment, fab, packaging, export control, electricity আর datacenter। AI ডিজিটাল মনে হয়, কিন্তু এটি খুবই ভৌত জিনিসের ওপর নির্ভর করে।
আমার কাছে এটাই সবচেয়ে শক্তিশালী কারণগুলোর একটি, কেন AI-কে শুধু app story বা model story হিসেবে দেখা বন্ধ করা উচিত। AI এখন:
- energy policy
- supply chain
- chip manufacturing
- cloud capacity
- foreign policy
- industrial strategy
চীন শুধু model নয়, sovereignty গড়ছে
পশ্চিমে অনেকেই DeepSeek moment-কে মূলত market আর media event হিসেবে পড়েছেন। আমি মনে করি বেশি গুরুত্বপূর্ণ স্তরটা আরও গভীরে।
Reuters ফেব্রুয়ারি ২০২৬-এর শেষে জানিয়েছিল যে DeepSeek তাদের আসন্ন V4 model optimization-এর জন্য US chipmaker-দের দেখায়নি, বরং Huawei-এর মতো domestic partner-দের আগে ভাগে শেয়ার করেছে। একই সময়ে ক্রমাগত রিপোর্ট আসছে যে Huawei, Ascend আর Atlas-এর মতো নতুন system-এর মাধ্যমে model layer-এর নিচে domestic stack গড়তে সিরিয়াসভাবে চেষ্টা করছে। শেষ পর্যন্ত সব performance claim সত্যি প্রমাণিত হবে কি না, সেটা প্রায় দ্বিতীয় প্রশ্ন। দিকনির্দেশনা পরিষ্কার: চীন শুধু model চায় না। চীন নিজের stack চায়।
এটাই আগামী বছরগুলোকে এত আকর্ষণীয় করে তোলে। আসল লড়াই chatbot-এর মধ্যে নয়, infrastructure bloc-এর মধ্যে।
ইউরোপের সামনে বেশি দর্শক হয়ে থাকার ঝুঁকি
ইউরোপের এখনো ভালো research, ভালো university, ভালো industry আর মোটামুটি যুক্তিসংগত regulation tradition আছে। কিন্তু সৎভাবে বলতে গেলে, এই মুহূর্তে ইউরোপকে কিছুটা মহাদেশগুলোর Apple-এর মতো লাগে:
- ambition-এ শক্তিশালী
- design, ethics আর rule-এ শক্তিশালী
- model, chip আর platform power-এ দুর্বল
বাক্যটা ইচ্ছে করেই একটু তীক্ষ্ণ, কিন্তু দিকটা আমার কাছে বাস্তব মনে হয়। যেখানে যুক্তরাষ্ট্র model, cloud, chip আর capital ঠেলছে, আর চীন sovereignty ও domestic stack ঠেলছে, সেখানে ইউরোপের ঝুঁকি হলো সে মন্তব্য করবে, regulation করবে, আর শেষ পর্যন্ত অন্য কোথাও তৈরি পণ্য ব্যবহার করবে। সিকিউরিটির দৃষ্টিতে এটি ছোট বিষয় নয়, কারণ dependency সবসময়ই security issue-ও বটে।
হাইপ আর ভয়ের মাঝখানে সাধারণত কোনো স্বার্থ থাকে
মিডিয়া landscape নিজেই এখন সিস্টেমের অংশ। যুক্তরাষ্ট্রে AI-কে প্রায় ধর্মীয় ভবিষ্যৎ-স্বরে বিক্রি করা হয়। এটা অপ্রত্যাশিত নয়। এই ঢেউয়ের বহু বড় সুবিধাভোগী সেখানে আছে: model vendor, cloud platform, chip designer, venture capital, public market, defence buyer আর enterprise customer।
ইউরোপে বিতর্ক অনেক সময় আলাদা শোনায়: চাকরি হারানোর বেশি ভয়, regulation নিয়ে বেশি উদ্বেগ, dependency আর speed হারানোর বেশি সতর্কতা। এটাও অপ্রত্যাশিত নয়, কারণ ইউরোপের বহু base platform layer-এ upside কম আর dependency বেশি।
আমার মনে হয়, এই দুই রিফ্লেক্সই বিপজ্জনক হয়ে ওঠে যখন এগুলো খুব সরল হয়ে যায়। naive hype ক্ষতি, power concentration আর security risk উপেক্ষা করে। pure fear tools, productivity আর সেই systems তৈরির সুযোগ উপেক্ষা করে যেগুলো আগে কখনো ঠিকমতো তৈরি করার সময়ই পায়নি। সেই কারণেই আমি বারবার কঠিন middle path-এ ফিরে আসি: আগ্রহী থাকা, কিন্তু naive না হওয়া; risk-এর কথা বলা, কিন্তু freeze না করা; আর প্রতিটি বড় headline-এর পেছনে জিজ্ঞেস করা — এই গল্পটি কে বলছে, আর কোন স্বার্থে?
তাহলে, দুনিয়া কি ভেঙে গেছে?
আমার উত্তর হলো না। কিন্তু এটি খুব শক্তভাবে নড়ছে। সবকিছু একসঙ্গে ঘটছে — এই অনুভূতিটাই অনেক মানুষের জন্য overload তৈরি করছে।
আমরা একসঙ্গে দেখছি:
- এআই হাইপ
- বাস্তব model progress
- overheated capital
- security সমস্যা
- ভূরাজনীতি
- media content-এর ওপর কমে যাওয়া বিশ্বাস
- robotics-এ অগ্রগতি
- এমন এক জনপরিসর যেখানে substance আর show আলাদা করা ক্রমেই কঠিন
এটা খুব বেশি, বিশেষ করে যখন একই সঙ্গে কাউকে স্বাভাবিক জীবন, কাজ, পরিবার, কোম্পানি বা infrastructure responsibility সামলাতে হয়। তবু আমি মনে করি এই সময়কে শুধু collapse story হিসেবে পড়া বিপজ্জনক, কারণ এতে আসল কাজ আড়ালে চলে যায়। প্রশ্ন হলো না — পরিবর্তন কীভাবে থামানো যায়। প্রশ্ন হলো:
- আমি আসলে কোন system-কে বিশ্বাস করতে চাই?
- কোন dependency আমাকে কমাতে হবে?
- কোন tool-গুলো সত্যিই দরকার?
- কোন security foundation-কে আরও কঠিন করতে হবে?
- এমন দুনিয়ায় আমি কীভাবে decision নিতে সক্ষম থাকব, যেখানে speed আর deception একসঙ্গে বাড়ছে?
কোম্পানিগুলোকে এখন কী শক্ত করতে হবে
যদি সবকিছু practical work-এ নামিয়ে আনি, তাহলে উত্তরটা অবাক করার মতো nonglamorous। বিষয়টা এ নয় যে প্রতিটি টিমে পাঁচটা নতুন AI tool ঢুকিয়ে দিয়ে আশা করা হবে ভবিষ্যৎ জাদুর মতো এসে যাবে। বিষয়টা হলো কয়েকটি জিনিসকে আগের চেয়ে অনেক বেশি সচেতনভাবে তৈরি করা।
- AI agent-কে normal user account-এ চালাবেন না। তাদের আলাদা identity, narrow scope, short-lived token আর mail, code deployment, admin change ও payment-এর জন্য পরিষ্কার approval boundary দিন।
- প্রতি সপ্তাহে নতুন SaaS যোগ না করে tool landscape সহজ করুন। প্রতিটি নতুন AI app বেশি session, browser extension, plugin, secret, log আর vendor dependency আনে।
- শুধু user নয়, agent-দেরও ঠিকভাবে log করুন। tool call, file access, approval, outgoing connection, ticket বা code-এর পরিবর্তন, আর prompt থেকে action-এ যাওয়ার মুহূর্ত — এগুলো গুরুত্বপূর্ণ।
- synthetic content-এর জন্য verification playbook তৈরি করুন। payment approval, HR instruction, admin request আর incident communication দ্বিতীয় channel দিয়ে confirm করা উচিত।
- patching আর exposure management-কে real time-এর অনেক কাছাকাছি ভাবুন, বিশেষ করে browser, identity, VPN, firewall, collaboration tool আর internet-facing service-এর ক্ষেত্রে।
- recovery এমনভাবে practise করুন যেন কোনো model, connector বা vendor আগামীকাল fail করতে পারে। এর মানে export path, fallback communication channel আর agent-এর জন্য পরিষ্কার kill switch।
- critical supplier-দের আরও কঠোরভাবে প্রশ্ন করুন। data, log, prompt, memory, key, training opt-out আর forensic option আসলে কোথায় আছে?
এসব Mythos, Gemini, ChatGPT বা Grok-এর মতো ঝলমলে শোনায় না। কিন্তু ঠিক এখানেই নির্ধারিত হবে কোনো কোম্পানি পরের ঢেউকে tool হিসেবে ব্যবহার করবে, নাকি নিজের complexity-র নিচে চাপা পড়বে। পৃথিবী স্রেফ শেষ হয়ে যাচ্ছে না। এটি আরও কঠিন, আরও ঘন আর আরও দ্রুত হয়ে উঠছে। যে এখন ভিত্তি মজবুত করবে, সে পরে সত্যিকারের AI-সুবিধা নেওয়ার স্বাধীনতা ধরে রাখতে পারবে।
পরবর্তী সময় পর্যন্ত,
Joe
সূত্র এবং আরো পড়ুন
- OpenAI: Accelerating the next phase of AI
- Anthropic Newsroom
- Project Glasswing
- Fortune: Mythos leak
- Bloomberg: Claude Code leak
- Google Ironwood TPU
- DeepMind: Gemini Robotics
- xAI Colossus
- xAI joins SpaceX
- Tesla Lithium Refinery
- Bloomberg: Meredith Whittaker on AI agents
- Reuters: Apple and Google Gemini for Siri
- Reuters/TBS: DeepSeek and Huawei
- Tom’s Hardware: Qatar helium shutdown


