رئيس مجموعة استشراف المستقبل الاستراتيجي: لا تنظروا إلى الأعلى

قبل عامين فقط، إجتاح فيلم كريستوفر نولان أوبنهايمر دور السينما، محققًا ما يقارب مليار دولار عالميًا، وحاصدًا سبع جوائز أوسكار، منها جائزة أفضل فيلم، إضافةً إلى خمس جوائز غولدن غلوب.
وقبل ذلك بعامين، أصبح فيلم آدم مكاي لا تنظروا إلى الأعلى (Don’t Look Up) ظاهرة على نتفلكس، محققًا أكثر من 360 مليون ساعة مشاهدة في أول 28 يومًا، ليصبح ثاني أكثر فيلم مشاهدة في تاريخ المنصّة آنذاك.
يروي أوبنهايمر قصة العالِم د. روبرت أوبنهايمر، “أب القنبلة الذرية”.
وفي المشهد الختامي، يحذر ألبرت أينشتاين من أنّه ربما أطلق سلسلة من التفاعلات التي قد تدمّر العالم يومًا ما.
في المقابل، يُصوِّر فيلم لا تنظروا إلى الأعلى العالِم الذي يلعب دوره ليوناردو ديكابريو وهو يكتشف مذنّبًا يتجه نحو الأرض، بينما تجسد ميريل ستريب شخصية رئيسة الولايات المتحدة التي تقابل الخبر بالإنكار والمماطلة والتشتيت.
في النهاية، يصطدم المذنب بالأرض، لينهي كل أشكال الحياة عليها.
الأمر ذاته يظهر في أفلام أخرى: فيلم لارس فون ترايير الاحباط (Melancholia) ينتهي بكوكب يصطدم بالأرض؛ وفيلم لورين سكارافيا البحث عن صديق لنهاية العالم (Seeking a Friend for the End of the World) يدور حول كويكب في مسار قاتل. في جميعها، يُطلق العلماء التحذيرات، وفي جميعها يتجاهل القادة المخاطر أو يقلّلون من شأنها. وغالبًا ما تحذو وسائل الإعلام حذو الحكومات حتى يفوت الأوان.
مرة تلو أخرى، يختار قادتنا الإنكار ويغلقون أعينهم أمام الكوارث الوشيكة، وكما في الفيلم، لا يريدون "النظر إلى الأعلى" ورؤية الجرم السماوي القادم.
كثير من القادة لا يزالون ينكرون تغيّر المناخ رغم الفيضانات والحرائق وتآكل السواحل. ويرفضون أيضًا تقبّل خطر الإبادة النووية، رغم النجاة من عدة لحظات كادت تشعل حربًا عالمية خلال الثمانين عامًا الماضية.
واليوم، يُنكر كثير من زعماء العالم التهديد الذي قد تُشكِّله الأنظمة فائقة الذكاء على الحضارة الإنسانية.
أخبرني أحد كبار صُنّاع القرار مؤخرًا أن لا سبب يدعو للقلق من المخاطر الكارثية للذكاء الاصطناعي المتقدّم، وحثّني على تجاهل تحذيرات حتى العلماء الحاصلين على جائزة نوبل ممّن ساهموا في بناء هذه التكنولوجيا.
وفي دولة أخرى، أكّد مسؤول عسكري رفيع أنه لا توجد أي فرصة لأن يسبب الذكاء الاصطناعي ضررًا في أنظمة اتخاذ القرار النووي – بل ذهب أبعد من ذلك ليقول إن الأمر آمن حتى لدى الخصوم.
ومع ذلك، فإن الأدلة تتراكم على أنّ الذكاء الاصطناعي المتقدّم يُظهر بالفعل قدرات خطيرة.
فعلى سبيل المثال، أُطلق نموذج Grok 4 في يوليو، وبعد 48 ساعة فقط تمكّن باحثون من تجاوز ضوابط الأمان فيه والحصول على تعليمات لصناعة قنابل مولوتوف وأشياء ضارّة أخرى. ورغم تفاوت نسب النجاح، إلا أن الاختراق كشف هشاشة هذه الأنظمة.
بعض خبراء السلامة أشاروا إلى أنّ نموذج o3 من OpenAI يمكن أن يساعد جهات خبيثة على تطوير مخاطر بيولوجية، وهو ما دفع الشركة إلى إنشاء نظام مراقبة جديد للحد من ذلك.
لكن من دون هذه التدابير، يظل للنموذج القدرة على التسبّب بضرر جسيم. مثال آخر: شركتا Insilico Medicine وAbsci تصممان جزيئات وبروتينات جديدة لأغراض طبية، لكن الأدوات نفسها قد تُستخدم لإنتاج سموم أو عوامل بيولوجية مميتة إذا وقعت في الأيدي الخطأ.
وفي تجربة أخرى، دفع صحفي نموذج R1 من DeepSeek لتوليد تعليمات لسلاح بيولوجي وحملة انتحارية. أما خليفته R2، فيستطيع إنتاج شيفرات خبيثة أو محاكاة سيناريوهات عسكرية بسرعة هائلة.
إزاء هذه التطورات، جاء في خطة العمل الأميركية للذكاء الاصطناعي التي أعلنها الرئيس ترامب في يوليو 2025: “قد يفتح الذكاء الاصطناعي مسارات جديدة أمام جهات خبيثة لتصنيع مسببات الأمراض والمواد البيولوجية الضارة.”
لا يقتصر الخطر على الأسلحة البيولوجية والكيميائية. قدرة DeepSeek على توليد 10,000 سيناريو عسكري خلال 48 ثانية تكشف عن طاقات هائلة لتحليل الأنظمة المعقدة، ما يثير احتمال اتخاذ قرارات آلية في الحروب.
وبالمثل، وقّعت شركة Scale AI عقدًا مع وزارة الدفاع الأميركية لتسريع وتيرة اتخاذ القرارات العسكرية. قد لا تحل الآلة محل الإنسان في القرارات الحرجة، لكن مدخلاتها ستؤثر بشكل كبير في تلك القرارات.
يمكن أن نتخيل ماذا سيحدث عندما يكون أمام القادة العسكريين وقت ضئيل لاتخاذ قرارات مصيرية.
ويحذر العلماء من أن ما نشهده اليوم ليس سوى البداية. إنهم قلقون من وصولنا إلى ذكاء اصطناعي عام (AGI) يعيد كتابة بنيته الداخلية دون إشراف بشري، وربما يمارس الخداع الاستراتيجي عبر إظهار سلوك تعاوني في الاختبارات بينما يطوّر سرًا استراتيجيات للبقاء. وقد حدث ذلك بالفعل جزئيًا.
كما يمكن أن نفقد السيطرة الاستراتيجية البشرية إذا قامت أنظمة ذكاء اصطناعي متصلة – تابعة لشركات مختلفة – بإدارة البنى التحتية العالمية دون وجود نقطة تدخل بشرية موحدة.
قد لا تكون هذه المخاطر قد اكتملت بعد، لكن أعراضها واضحة أمامنا. ورفض "النظر إلى الأعلى" ليس مجرد استعارة سينمائية، بل عادة بشرية قاتلة.
لذلك أصابني القلق حينما حثّني صناع القرار الذين ذكرتهم على تجاهل تحذيرات أعظم العلماء.
ستكون كارثة إذا تعامل القادة مع أخطر قدرات الذكاء الاصطناعي باعتبارها أوراقًا دبلوماسية أو مشكلات علاقات عامة. يثبت التاريخ أن التحذيرات التي يتم تجاهلها ما هي إلا بروفات لكوارث حقيقية.
حتى لو كان احتمال وقوع الكارثة واحدًا في المئة فقط، فهذا كافٍ ليدفعنا إلى التحرك. نحن بحاجة إلى اتفاقيات عالمية حول سلامة الذكاء الاصطناعي قبل أن يسلك واقعنا نفس الطريق المأساوي الذي سلكته أفلام الكوارث. على قادتنا أن يختاروا النظر إلى الأعلى… ما دام الوقت لم يفت بعد.
سنديب واسليكار هو رئيس مجموعة "استشراف المستقبل الاستراتيجي"، وهي مؤسسة فكرية دولية، ومؤلف كتاب "عالم بلا حرب".