
ضجة الذكاء الاصطناعي والحروب والثغرات الأمنية: هل العالم مكسور أم يعاد تشكيله فقط؟
جدول المحتويات
قبل بضعة أسابيع، كتبت في مقال آخر أن العالم يتغير أسرع مما يعتقده معظم الناس. واليوم أريد أن أصوغ هذه الفكرة بشكل أكثر حدة.
في المحادثات مع العملاء والفرق، تعود نفس المسألة مرارًا: ما الذي يمثل تقدمًا حقيقيًا، وما الذي ليس إلا ضجيجًا مدعومًا بتسويق جيد؟ إذا تابعنا الأخبار منذ بداية 2026، فمن السهل جدًا أن نشعر بأن كل شيء يتحرك في الوقت نفسه. OpenAI وGoogle وAnthropic وxAI في سباق علني. الروبوتات الشبيهة بالبشر تنتقل من العروض إلى المصانع. الحروب والضغط الجيوسياسي يضربان فجأة سلاسل توريد الشرائح والغازات. وفي الوقت نفسه تظهر ثغرات جديدة تقريبًا كل يوم، وكل أداة جديدة لا تجلب فقط إنتاجية أعلى، بل أيضًا صلاحيات أكثر وتدفقات بيانات أكثر وسطح هجوم أوسع.
بالنسبة لمن يعملون على بناء بنية تحتية آمنة والحفاظ على قدرة الناس على العمل داخل عالم رقمي أكثر اضطرابًا، فإن هذا لا يبدو كأنه أخبار تقنية عادية. بل يبدو كضغط في الزمن. والسؤال لم يعد فقط أي نموذج يحقق بنشمارك أفضل. السؤال الحقيقي هو: هل العالم مكسور فعلًا، أم أننا نرى بداية إعادة تشكيل شاملة؟
إجابتي الآن بسيطة: العالم لم ينكسر فجأة. لكنه يعاد ترتيبه بسرعة وحدّة تتجاوز قدرة كثير من الناس على الاستيعاب نفسيًا واقتصاديًا ومن زاوية الأمن.
باختصار:
- ما نراه يشبه إعادة بناء متسارعة للسلطة والبنية التحتية والثقة أكثر مما يشبه انهيارًا كاملًا.
- يبقى الأمن هو الطبقة الأساسية، لأن الذكاء الاصطناعي فوق الأنظمة الهشة يعني بالأساس أخطاء أسرع وأضرارًا أكبر.
- السؤال الأهم ليس فقط أي نموذج يتقدم، بل من يسيطر على الشرائح والحوسبة والمنصات والبيانات وسلاسل التوريد.
ما الذي يتسارع فعلًا
ما يهم هنا ليس إطلاق نموذج واحد، بل تفاعل خمس قوى:
- كميات هائلة من رأس المال
- ندرة موارد الحوسبة
- ألعاب القوة الجيوسياسية
- اهتمام الإعلام كرافعة استراتيجية
- الحقيقة التقنية بأن البرمجيات لا تكون منجزة بالكامل ولا آمنة بالكامل
عندما تتحرك هذه القوى الخمس معًا، يظهر شعور بتسارع دائم. وهذا بالضبط ما يبدو عليه عام 2026. أغلقت OpenAI جولة تمويل ضخمة جديدة في 31 مارس 2026. وأعلنت Anthropic عن Series G في 12 فبراير 2026. وجمعت xAI رأس مال جديدًا في أوائل يناير. أما Google فلا تحتاج أصلًا إلى عناوين كبيرة حول التمويل، لأنها تستطيع تمويل اندفاعها في الذكاء الاصطناعي عبر الإعلانات والسحابة والعتاد وقوتها السوقية القائمة. هذه لم تعد أخبار برمجيات عادية. هذه إشارات إلى صراع على البنية التحتية.
وهنا بالضبط يبدأ الفرق بين الضجة والبنية من وجهة نظري. الضجة تصنع صوتًا عاليًا. أما البنية فتبقى. المهم ليس فقط من لديه أفضل عرض، بل من يسيطر في الوقت نفسه على النماذج والحوسبة والتوزيع والعتاد والثقة.
من يلعب أي لعبة
إذا نظرنا إلى اللاعبين الكبار في الذكاء الاصطناعي بهدوء، فسنرى أنهم لا يلعبون اللعبة نفسها. وهذا بالضبط ما يجعل السوق مثيرًا ومهمًا من زاوية الأمن.
OpenAI
OpenAI تسيطر على التوزيع. كثير من الناس لا يقولون “أنا أستخدم LLM”، بل يقولون ببساطة “أنا أستخدم ChatGPT”. ومع فكرة “unified AI superapp” وطبقة منتجات تزداد كثافة من Codex وconnectors ومكتبات الملفات وdeep research ووظائف مرتبطة بذلك، تحاول OpenAI أن تدخل من جهة المستهلك إلى العمل اليومي. ومن منظور الأمن، هذا مهم لأن نافذة المحادثة يمكن أن تتحول سريعًا إلى نقطة تركّز للهويات والجلسات والملفات والإضافات وصلاحيات الوكلاء.
Anthropic
Anthropic تلعب بشكل أكبر عبر ثقة المؤسسات، والقرب من المطورين، وسردية الأمن. فـ Claude Code وComputer Use وCowork والتركيز على نماذج عمل أكثر قابلية للضبط للشركات يجعل Claude يبدو أقل كمنتج جماهيري وأكثر كمنتج قائم على الثقة. في رأيي، Anthropic تبيع أكثر من مجرد أداء النموذج. إنها تبيع فكرة أن المؤسسات تستطيع السماح لـ Claude بالاقتراب أكثر من الشيفرة المصدرية وسير العمل ومساحات القرار الحساسة. وقد تناولت Mythos وProject Glasswing بتفصيل أكبر في مقال منفصل .
Google تلعب اللعبة الأوسع وربما الأشد صبرًا. في جانب Gemini يمكن رؤية قارة كاملة من المنتجات تمتد من Workspace إلى Pixel وحتى DeepMind. ومع Google Vids يتم إدخال الذكاء الاصطناعي إلى واجهات العمل اليومية بدلًا من الاكتفاء بعرضه كاستعراض لافت. وفي الوقت نفسه، تعد Google من القلة التي تتحكم أكثر بكثير في مصيرها الحوسبي بفضل Ironwood، الجيل السابع من TPU لديها. ولهذا أرى Google حتى الآن اللاعب الأكثر استهانة في هذا السباق.
xAI
تبدو xAI أكثر هدوءًا، لكنها ليست صغيرة. فمع Colossus وGrok Business وGrok Enterprise والارتباط الرسمي الآن بـ SpaceX، تحاول xAI أيضًا أن تتموضع بجدية في طبقة البنية التحتية والأعمال.
ما يثير اهتمامي هنا ليس النموذج فقط، بل فرضية مركز البيانات الكامنة وراءه. تصف xAI مشروع Colossus بأنه نوع من gigafactory of compute: تم بناؤه خلال 122 يومًا، ثم تمت مضاعفته إلى 200 ألف GPU خلال 92 يومًا إضافية، مع خارطة طريق نحو سعة أكبر بكثير. وهذا يبدو أقل كإطلاق برمجي تقليدي وأكثر كمحاولة للسيطرة المبكرة جدًا على عنق زجاجة استراتيجي.
وبصفتي مراقبًا للسوق، يذكرني هذا بقوة بنمط رأيناه مرارًا في شركات Musk. فقد بنت Tesla شبكة Supercharger لسنوات طويلة قبل أن يدرك كثير من المنافسين القيمة الاستراتيجية الحقيقية لهذه الطبقة من البنية التحتية. ثم ذهبت Tesla أعمق داخل سلسلة القيمة مع مصفاة الليثيوم في تكساس. ويبدو أن xAI تحاول شيئًا مشابهًا في جانب الحوسبة: تدريب النماذج، وفي الوقت نفسه تشكيل البنية التحتية النادرة التي تعتمد عليها هذه النماذج منذ وقت مبكر. وعندما تدرك المنافسة أهمية هذه الطبقة، يكون التفوق غالبًا ليس في التقنية وحدها، بل في الوقت الذي مضى بالفعل.
هذا لا يجعل xAI أفضل تلقائيًا. لكنه يجعلها أكثر مرونة من الناحية الاستراتيجية مما يمنحها كثيرون اليوم.
Apple
في هذه الصورة، تبدو Apple أقرب إلى أن تكون عرضًا للأعراض لا محركًا أساسيًا. فكون Apple ستستخدم Gemini من Google في البنية الجديدة لـ Siri يوضح بجلاء أن حتى القوة المنصاتية الهائلة لا تضمن التفوق في النماذج. وبالنسبة للمستخدمين وفرق الأمن، هذا لا يبسّط شيئًا. فكلما زاد خلط وعود on-device وخطاب private cloud compute ونوى النماذج الخارجية، أصبح من الأصعب معرفة أين تنتهي البيانات والسياقات والسجلات والقرارات فعليًا.
لماذا تبقى Anthropic في العناوين
إذا ضغطنا الأشهر الأربعة الأخيرة حول Anthropic في سطر واحد، سنحصل على تدفق غير عادي من الأخبار: Claude Opus 4.6، وClaude Sonnet 4.6، وجولة Series G، والاستحواذ على Vercept، وشراكات جديدة، وAnthropic Institute، ومئة مليون دولار لـ Claude Partner Network، وتسريب Mythos في Fortune، وتسريب Claude Code في Bloomberg، وشائعات الطرح العام، ثم Project Glasswing في 7 أبريل.
هذا لا يثبت تلقائيًا وجود كوريغرافيا سرية للعلاقات العامة. لكنه يوضح مدى اتساق Anthropic في تحويل الظهور الإعلامي إلى موقع سوقي خلال 2026. وبالنسبة لشركة تبيع في الوقت نفسه الثقة والجاهزية المؤسسية وأفق طرح عام محتمل، فإن الظهور ليس أثرًا جانبيًا. بل هو جزء من اللعبة.
الروبوتات الشبيهة بالبشر لم تعد هامشًا
بينما تتنافس شركات مثل Anthropic وOpenAI وGoogle على النماذج والعناوين وسير العمل البرمجي، تنتقل القدرات نفسها أيضًا إلى العالم المادي. وما زال هذا الأمر أقل تقديرًا مما ينبغي، لأن كثيرًا من الناس ما زالوا يربطون الذكاء الاصطناعي أساسًا بنوافذ المحادثة ومولدات الصور ومساعدي البرمجة.
تعرض Google DeepMind الآن Gemini وVeo وImagen وLyria وGemini Robotics جنبًا إلى جنب. وفي الوقت نفسه أعلنت Boston Dynamics وGoogle DeepMind في يناير 2026 عن شراكة حول Atlas وGemini Robotics. وهذا أكثر من مجرد لحظة لطيفة في معرض تقني. إنه يوضح أن منطق foundation models يغادر المتصفح تدريجيًا ويدخل إلى الأنظمة المادية.
لسنا بعد في عالم يقف فيه روبوت شبيه بالبشر بجانبنا في كل مكان صباح الغد. لكننا بالتأكيد في مرحلة تختبر فيها المصانع، وتتقارب فيها الأبحاث والعتاد، ولم تعد الروبوتات تُتصور من دون الذكاء الاصطناعي. وكل من يتحدث عن مستقبل العمل ويفكر فقط في برامج المكاتب، فإنه ينظر إلى جزء صغير جدًا من الصورة.
يبقى الأمن هو الطبقة الأساسية الحقيقية
أكثر ما يشغلني في هذا النقاش كله ليس سباق النماذج بحد ذاته فقط، بل ما الذي تعنيه كل هذه التحولات للأمن. وهنا يفيد النظر سريعًا إلى هرم ماسلو. فالأمن يقع هناك في الأسفل جدًا، عادة في المستوى الثاني من الأسفل. وهذه هي النقطة الأساسية تمامًا: الأمن ليس ميزة رفاهية تضاف لاحقًا. بل هو شرط مسبق لكي تعمل كل الطبقات التي فوقه بشكل مستقر. وهذا صحيح للبشر، وصحيح أيضًا للبنية التحتية الرقمية.
في عملي اليومي، لم يكن الأمن يومًا يعني أمنًا مثاليًا. بل يعني ما يلي:
- فهم المخاطر
- تقليل سطح الهجوم
- التخطيط لأنماط الفشل
- الحد من الأضرار
- إبقاء الناس قادرين على العمل
نحن نسعى إذًا إلى أعلى مستوى ممكن من الأمن مع معرفتنا أن لا شيء سيكون آمنًا بالكامل. وهنا يصبح 2026 مزعجًا إلى حد كبير. فسرعة التغيير ترتفع أسرع من قدرتنا على اللحاق بها. وليس لدينا ما يكفي من المطورين الجيدين، ولا ما يكفي من خبراء الأمن الجيدين، وبالتأكيد لا نملك قدرة كافية لمراجعة جبل الشيفرة الذي يزداد حجمًا، والذي لم يعد يُنتج من البشر فقط، بل من النماذج أيضًا. فالإنترنت لم يكن آمنًا بالكامل يومًا. وما هو جديد الآن هو السرعة التي تتوسع بها حالة انعدام الأمان.
يبدو الإنترنت أقل أمانًا لأن سرعة الاستغلال ترتفع
لا أعتقد أن عام 2026 أصبح أقل أمانًا فجأة لأن الناس نسوا كيف يكتبون البرمجيات. بل أعتقد أن مزيج البرمجيات الأكثر، والأتمتة الأكثر، والاعتماديات الأكثر، وسلاسل التوريد الأكثر، والنماذج الأفضل، يكشف بوضوح مدى هشاشة كل هذا منذ الأصل.
عندما تعثر Anthropic في اختبارات Mythos على أخطاء ظلت مختبئة في الأنظمة لمدة 16 أو 27 عامًا، فهذه ليست قصة جانبية غريبة. بل هي تذكير بأن الأنظمة الرقمية مليئة بديون تاريخية وافتراضات ضمنية وطبقات قديمة لم يعد أحد يفهمها فهمًا عميقًا. ولهذا تظل قاعدة تشغيلية قديمة مهمة جدًا بالنسبة إلي:
أفضل استخدام عدد قليل من الأدوات الجيدة على استخدام عدد كبير من الأدوات المتوسطة.
كل أداة إضافية تجلب:
- رموز وصول جديدة
- أسرارًا جديدة
- جلسات متصفح جديدة
- مكتبات جديدة
- إضافات جديدة
- سلاسل تحديث جديدة
- صلاحيات جديدة
ومعها طرقًا جديدة لحدوث الخطأ.
في عالم تستطيع فيه النماذج أن تقرأ وتربط وتحدد الأولويات، وأحيانًا تستغل الثغرات، بسرعة أعلى من السابق، يصبح تقليص الـ stack مهمًا مجددًا. ليس لأن البساطة تبدو جميلة، بل لأن التعقيد ينتج تكاليف أمنية واقعية جدًا.
المشكلة الأكبر الآن هي مشكلة الحقيقة
ما يقلقني الآن تقريبًا أكثر من الثغرات التقليدية هو المشكلة المعرفية: ما الذي بقي حقيقيًا أصلًا؟ في السابق كانت الصورة ما تزال تصلح إلى حد ما كدليل. وكان الفيديو أكثر من ذلك.
اليوم نعيش في عالم يمكن فيه:
- إنشاء صور اصطناعية خلال دقائق
- استنساخ الأصوات بشكل مقنع
- تزوير الفيديوهات بطريقة شديدة الإقناع
- توليد آلاف الصفحات الفرعية لـ SEO بشكل آلي
- ملء فضاءات كاملة من الرأي بشكل مصطنع
وبالنسبة للأمن، فهذا تحول جذري. فالأمن لم يعد يعني فقط:
- هل الـ endpoint نظيف؟
- هل كلمة المرور قوية؟
- هل الشبكة مقسمة؟
بل يعني أيضًا:
- هل ما زلت أستطيع الوثوق بالمصدر؟
- هل أستطيع تمييز الدليل الذي تم التلاعب به؟
- هل أستطيع اتخاذ القرار بناء على إشارات حقيقية؟
- ما القنوات التي تبقى موثوقة أثناء الحوادث؟
لم تعد هذه مشكلة أكاديمية. فكلما اعتمدت الشركات أكثر على وكلاء الذكاء الاصطناعي والتواصل الآلي والمحتوى الاصطناعي، انتقل مركز المشكلة من “حماية الأنظمة” إلى “حماية الأنظمة والهويات والقرارات وإدراك الواقع”.
الثقة نفسها تتحول إلى سطح هجوم
هناك نقطة أخرى ما زال النقاش حولها أقل مما ينبغي: الثقة اليوم أكبر من مجرد التشفير وقواعد الشبكة النظيفة. لقد أصبحت سؤال منصة، وسؤال مزود، وإلى حد ما سؤال دولة أيضًا.
وقد لخصت Meredith Whittaker من Signal ذلك بشكل جيد جدًا في Bloomberg في يناير 2026. وكان لب فكرتها أن وكلاء الذكاء الاصطناعي “pretty perilous” بالنسبة للتطبيقات الآمنة لأنهم يحتاجون إلى صلاحيات عميقة ووصول واسع إلى البيانات، وغالبًا رؤية نظامية شاملة للمحتوى لكي يؤدوا عملهم. وهذه هي بالضبط أهمية القضية من منظور الأمن. فحتى لو بقي التشفير قويًا رياضيًا، فإن قيمته العملية تنخفض عندما يستطيع نظام التشغيل أو الوكيل أو المنصة المحيطة أن ترى كل شيء أصلًا بشكل واضح.
ومن هذا المنظور، لا يكون الوكيل مجرد “chatbot ينقر قليلًا”. بل أشبه بموظف جديد قابل للبرمجة داخل الشركة. فهو يقرأ البريد ويرى المستندات ويفتح جلسات المتصفح ويستدعي الـ API ويعرف التقاويم ويستخدم الرموز ويبدأ الـ workflows ويمكنه حتى كتابة الكود أو التذاكر. وإذا تم اختراق هذا الوكيل، أو فُوض بشكل سيئ، أو مُنح صلاحيات أكثر مما ينبغي، فإن المهاجم لم يعد خارج الباب. بل أصبح بالفعل داخل العملية.
ثم تأتي الطبقة السياسية. فعندما اضطرت Apple إلى سحب تشفير iCloud الأقوى في المملكة المتحدة بسبب الضغط حول الـ backdoors، لم تكن تلك مجرد قصة خصوصية. بل كانت تذكيرًا بأن وعود الأمن تعتمد دائمًا أيضًا على موازين القوة. وعندما تعتمد Apple في الوقت نفسه على Google Gemini من أجل Siri، تصبح الصورة أوضح: الثقة اليوم تعتمد على سلاسل من الاعتماديات، لا على اسم منتج واحد فقط.
الجغرافيا السياسية عادت لتصبح بنية تحتية
أقسى نقطة الآن هي مدى تأثير الأحداث الجيوسياسية المباشر مجددًا في الواقع التقني. والهيليوم مثال جيد على ذلك.
في 12 مارس 2026، أفاد Tom’s Hardware بأن إنتاج الهيليوم في مجمع Ras Laffan في قطر تأثر بعد هجمات بطائرات مسيرة إيرانية. ووفقًا لهذا التقرير، خرج الموقع عن الخدمة في 2 مارس، ما أزال مؤقتًا نحو 30 بالمئة من الإمداد العالمي بالهيليوم من السوق. وهذا يوضح مدى رقة الخيط بين الحرب والكيمياء وصناعة أشباه الموصلات وبنية الذكاء الاصطناعي التحتية.
والنسخة المختصرة قاسية:
هجوم بطائرة مسيرة -> نقص في الهيليوم -> ضغط على إنتاج الشرائح -> هامش أقل لعتاد الذكاء الاصطناعي -> مزيد من الضغط في عالم حوسبة ساخن أصلًا
عندما تصبح غازات العمليات الحيوية نادرة، فنحن لا نتحدث عن قصة كلية مجردة. بل نتحدث عن اختناقات حقيقية جدًا في عالم يحتاج إلى مزيد من الشرائح في الوقت نفسه. وليست المسألة اختزال القصة كلها في آلة ASML “تحتاج إلى الهيليوم”. بل في السلسلة كلها: الطباعة الضوئية، والتبريد، وبيئات العمليات، والمصانع، والتغليف، وضوابط التصدير، والكهرباء، ومراكز البيانات. يبدو الذكاء الاصطناعي رقميًا، لكنه يعتمد على أشياء مادية جدًا.
وهذا أحد أقوى الأسباب بالنسبة إلي لكي نتوقف عن معاملة الذكاء الاصطناعي كقصة تطبيقات أو نماذج فقط. فالذكاء الاصطناعي اليوم هو:
- سياسة طاقة
- سلاسل توريد
- تصنيع شرائح
- سعة سحابية
- سياسة خارجية
- استراتيجية صناعية
الصين تبني السيادة، لا النماذج فقط
قرأ كثيرون في الغرب لحظة DeepSeek باعتبارها حدثًا سوقيًا وإعلاميًا بالأساس. أما أنا فأرى أن الطبقة الأهم تقع أعمق.
فقد ذكرت Reuters في أواخر فبراير 2026 أن DeepSeek لم تعرض نسختها القادمة V4 على مصنعي الشرائح الأمريكيين من أجل التحسين، بل شاركتها مبكرًا مع شركاء محليين مثل Huawei. وفي الوقت نفسه تتزايد التقارير بأن Huawei تحاول بجدية بناء stack محلي أسفل طبقة النماذج من خلال أنظمة Ascend وAtlas الجديدة. وما إذا كانت كل وعود الأداء ستتأكد لاحقًا أم لا يكاد يكون مسألة ثانوية. فالاتجاه واضح: الصين لا تريد نماذج فقط. الصين تريد stack خاصًا بها.
وهذا هو ما يجعل السنوات المقبلة شديدة الإثارة. فالمعركة الحقيقية ليست بين chatbots، بل بين كتل البنية التحتية.
أوروبا مهددة بأن تراقب أكثر مما تبني
ما زالت أوروبا تملك بحثًا جيدًا، وجامعات جيدة، وصناعة جيدة، وتقاليد تنظيمية معقولة. لكن بصراحة، تبدو أوروبا الآن قليلًا كأنها Apple القارات:
- قوية في الطموح
- قوية في التصميم والأخلاق والقواعد
- أضعف في النماذج والشرائح وقوة المنصات
هذه الصياغة مقصودة لتكون حادة قليلًا، لكنني أرى أن الاتجاه واقعي. فبينما تدفع الولايات المتحدة بالنماذج والسحابة والشرائح ورأس المال، وتدفع الصين بالسيادة والـ stacks المحلية، تخاطر أوروبا بأن تقضي وقتها في التعليق والتنظيم ثم استهلاك المنتجات التي بُنيت في مكان آخر. ومن منظور الأمن، فهذه ليست مسألة صغيرة، لأن الاعتماد يبقى دائمًا مسألة أمن أيضًا.
بين الضجة والخوف توجد غالبًا مصلحة
لقد أصبحت البيئة الإعلامية نفسها جزءًا من النظام. ففي الولايات المتحدة، يُباع الذكاء الاصطناعي كثيرًا بنبرة تكاد تكون دينية عن المستقبل. وهذا ليس مفاجئًا. فالكثير من أكبر المستفيدين من هذه الموجة موجودون هناك: مزودو النماذج، ومنصات السحابة، ومصممو الشرائح، ورأس المال المغامر، والأسواق العامة، ومشترو الدفاع، والعملاء المؤسسيون.
أما في أوروبا، فيبدو النقاش مختلفًا غالبًا: مزيد من الخوف من فقدان الوظائف، ومزيد من القلق التنظيمي، ومزيد من التحذير من الاعتماد وفقدان السرعة. وهذا أيضًا ليس مفاجئًا، لأن أوروبا تملك upside أقل واعتمادًا أكبر في كثير من طبقات المنصات الأساسية.
وأعتقد أن كلا هذين الانعكاسين يصبح خطيرًا عندما يُبسط أكثر من اللازم. فالضجة الساذجة تتجاهل الأضرار وتركيز القوة ومخاطر الأمن. والخوف الخالص يتجاهل الأدوات والإنتاجية والفرصة لبناء أنظمة لم يتح لها من قبل وقت كافٍ. ولهذا أعود دائمًا إلى هذا الطريق الأوسط الأكثر صعوبة: أن أبقى مهتمًا دون أن أصبح ساذجًا، وأن أسمي المخاطر من دون أن أتجمد، وأن أسأل نفسي مع كل عنوان كبير: من يروي لي هذه القصة، ولمصلحة من؟
إذن، هل العالم مكسور؟
إجابتي هي: لا. لكنه في حركة عنيفة. وهذا الإحساس بأن كل شيء يحدث معًا يخلق حملًا زائدًا عند كثير من الناس.
نحن نعيش كل هذا في الوقت نفسه:
- ضجة الذكاء الاصطناعي
- تقدمًا حقيقيًا في النماذج
- رأس مال محمومًا
- مشاكل أمنية
- جغرافيا سياسية
- تراجع الثقة في المحتوى الإعلامي
- تقدمًا في الروبوتات
- جمهورًا يجد صعوبة متزايدة في فصل الجوهر عن الاستعراض
هذا كثير جدًا، خاصة إذا كان على الشخص في الوقت نفسه أن يدير حياة عادية وعملًا وأسرة وشركة أو مسؤولية عن بنية تحتية. ومع ذلك، أرى أنه من الخطير قراءة هذه المرحلة كقصة انهيار فقط، لأن ذلك يخفي المهمة الحقيقية. فالسؤال ليس كيف نوقف التغيير. السؤال هو:
- ما الأنظمة التي أريد أن أثق بها حقًا؟
- ما الاعتماديات التي يجب أن أقللها؟
- ما الأدوات التي أحتاج إليها فعلًا؟
- ما الأساسات الأمنية التي يجب أن تصبح أصلب؟
- كيف أحافظ على قدرتي على اتخاذ القرار في عالم ينمو فيه كل من السرعة والخداع معًا؟
ما الذي يجب على الشركات أن تقويه الآن
إذا اختزلت كل هذا إلى العمل العملي، تصبح الإجابة أقل بريقًا بشكل ملحوظ. فالمسألة ليست رمي خمس أدوات ذكاء اصطناعي جديدة داخل كل فريق ثم انتظار أن يظهر المستقبل تلقائيًا. بل المسألة هي بناء عدد قليل من الأمور بوعي أكبر بكثير من السابق.
- لا تشغلوا وكلاء الذكاء الاصطناعي تحت حسابات المستخدمين العادية. امنحوهم هويات منفصلة ونطاقات ضيقة ورموزًا قصيرة العمر وحدود موافقة واضحة للبريد ونشر الكود والتغييرات الإدارية والمدفوعات.
- بسّطوا مشهد الأدوات بدلًا من إضافة SaaS جديد كل أسبوع. فكل تطبيق AI جديد يجلب مزيدًا من الجلسات وإضافات المتصفح والأسرار والسجلات والاعتماد على المزود.
- سجّلوا نشاط الوكلاء كما تسجلون نشاط المستخدمين. المهم هنا هو استدعاءات الأدوات والوصول إلى الملفات والموافقات والاتصالات الصادرة والتغييرات على التذاكر أو الكود والانتقال من الـ prompt إلى الفعل.
- ابنوا playbook للتحقق من المحتوى الاصطناعي. فيجب تأكيد موافقات الدفع وتعليمات الموارد البشرية وطلبات الإدارة ورسائل الحوادث عبر قناة ثانية.
- تعاملوا مع patching وexposure management على أنهما أقرب كثيرًا إلى الزمن الحقيقي، خصوصًا للمتصفحات والهويات وVPN والجدران النارية وأدوات التعاون والخدمات المكشوفة على الإنترنت.
- درّبوا recovery كما لو أن نموذجًا أو connector أو مزودًا قد يفشل غدًا. وهذا يعني مسارات تصدير وقنوات تواصل بديلة وkill switch نظيف للوكلاء.
- شددوا الأسئلة على المزودين الحرجين أكثر بكثير. أين توجد البيانات والسجلات والـ prompts والذاكرة والمفاتيح وtraining opt-outs وخيارات الطب الشرعي فعلًا؟
كل هذا يبدو أقل بريقًا بكثير من Mythos أو Gemini أو ChatGPT أو Grok. لكن هنا بالضبط سيتحدد ما إذا كانت الشركة ستستخدم الموجة القادمة كأداة أم ستُدفن تحت تعقيدها الذاتي. فالعالم لا ينتهي ببساطة. إنه يصبح أصلب وأكثر كثافة وأسرع. ومن يقوي الأساس الآن سيبقى لديه لاحقًا هامش الحرية ليستفيد من الذكاء الاصطناعي فعلًا.
إلى اللقاء،
جو
المصادر والقراءة الإضافية
- OpenAI: Accelerating the next phase of AI
- Anthropic Newsroom
- Project Glasswing
- Fortune: Mythos leak
- Bloomberg: Claude Code leak
- Google Ironwood TPU
- DeepMind: Gemini Robotics
- xAI Colossus
- xAI joins SpaceX
- Tesla Lithium Refinery
- Bloomberg: Meredith Whittaker on AI agents
- Reuters: Apple and Google Gemini for Siri
- Reuters/TBS: DeepSeek and Huawei
- Tom’s Hardware: Qatar helium shutdown


