بقلم سنديب واسليكار: ثورة داخل الذكاء الاصطناعي

بقلم سنديب واسليكار: ثورة داخل الذكاء الاصطناعي

ثورة داخل الذكاء الاصطناعي
بقلم: سنديب واسليكار
عندما بدأتُ كتابة هذا العمود في كانون الثاني/يناير 2025، كانت نماذج اللغة الكبيرة (LLMs) حديث الساعة.
 ومع تقدم العام، إنصبّ النقاش العام تقريباً بالكامل على كيفية إعادة الذكاء الاصطناعي تشكيل الوظائف، والإبداع، والاقتصاد العالمي.
لكن خارج دائرة ضيقة من علماء الذكاء الاصطناعي، لم يلاحظ كثيرون أن ثورة أكثر هدوءاً، وأشد عمقاً في آثارها، كانت تجري داخل الذكاء الاصطناعي نفسه.
فقد بدأ عدد من “الآباء المؤسسين” للذكاء الاصطناعي الحديث— الذين وضعوا أسس تعلّم الآلة والذكاء العام— بالابتعاد عن نماذج اللغة الكبيرة، أو تعمّدوا أصلاً عدم الانخراط فيها.
بالنسبة لمعظم المستخدمين، أصبح الذكاء الاصطناعي مرادفاً لنماذج اللغة الكبيرة. أما العلماء الذين ساهموا في ابتكارها، فيرون الصورة بشكل مختلف.
يان لوكون، الحائز على جائزة تورينغ، والذي أعلن مؤخراً مغادرته منصبه كرئيس علمي للذكاء الاصطناعي في شركة “ميتا”، جادل مراراً بأن نماذج اللغة الكبيرة تفتقر إلى الارتكاز على العالم الفيزيائي، وإلى الفهم السببي، والذاكرة المستمرة، والتخطيط الموجّه بالأهداف. ومن وجهة نظره، فإن توسيع نماذج اللغة وحده لا يمكن أن ينتج ذكاءً حقيقياً. وبدلاً من ذلك، دعا لوكون منذ زمن إلى تطوير ما يسميه “نماذج العالم”، وهو يستعد اليوم لبناء واحد منها في مشروعه الجديد.
أما جيفري هينتون، الذي يوصف غالباً بأنه أحد آباء التعلّم العميق، فقد اتخذ مساراً مختلفاً.
 فبدلاً من الترويج لمزيد من التوسّع في النماذج، ركّز على التحذير من المخاطر التي قد تفرضها أنظمة الذكاء الاصطناعي المتقدمة، مؤكداً أن زيادة عدد المعاملات لا تعني بالضرورة فهماً أو تفكيراً أعمق.
يوشوا بنجيو، العضو الثالث في الثلاثي الحائز على جائزة تورينغ إلى جانب هينتون ولوكون، كرّس اهتمامه بشكل متزايد لقضايا سلامة الذكاء الاصطناعي، والمواءمة، والحوكمة. وقد عبّر عن شكوك عميقة في أن البنى المعمارية الحالية تلتقط مفهوم الوكالة أو التفكير بمعنى حقيقي.
في-في لي، الرئيسة السابقة للعلماء في الذكاء الاصطناعي لدى “غوغل كلاود”، كانت قد بدأت بالفعل ببناء برامج بحثية تتمحور حول مقاربات شبيهة بنماذج العالم، قبل أن يدخل هذا النقاش إلى التيار العام.
ديميس هاسابيس، الرئيس التنفيذي لشركة “غوغل ديب مايند” والحائز على جائزة نوبل في الكيمياء، لم يقدّم نماذج اللغة الكبيرة يوماً على أنها كافية لتحقيق الذكاء العام. فأهم إنجازات “ديب مايند”—مثل ألفاغو وألفافولد—اعتمدت على التخطيط، والبحث، والاستدلال البنيوي، لا على توليد اللغة وحده.
بالنسبة لغير المتخصصين، يمكن فهم “نموذج العالم” بوصفه خريطة داخلية لكيفية عمل العالم. البشر يبنون مثل هذه النماذج باستمرار. نحن نعلم أنه إذا دفعنا كأساً عن الطاولة فسيسقط وينكسر، وإذا تركنا الطعام مكشوفاً فسيفسد. نتعلم ذلك لا من النصوص، بل من التفاعل مع العالم، وملاحظة السبب والنتيجة، وتحديث توقعاتنا.
في الذكاء الاصطناعي، يشير نموذج العالم إلى نظام يتعلم بنية الواقع—الأشياء، والعلاقات، والقوانين الفيزيائية، وعواقب الأفعال—بحيث يستطيع محاكاة النتائج قبل اتخاذ القرار. وبدلاً من التنبؤ بالكلمة التالية في جملة، تتنبأ هذه الأنظمة بما سيحدث لاحقاً في بيئة ما.
يمكن تشبيه ذلك بمحاكي الطيران لا بآلة كاتبة. نموذج اللغة يُكمل الجمل، أما النظام القائم على نموذج العالم فيُجري محاكاة ذهنية: إذا فعلتُ (س)، فمن المرجح أن يحدث (ص). هذا النهج بالغ الأهمية في مجالات مثل الروبوتات، والاكتشاف العلمي، ونمذجة المناخ، واتخاذ القرارات المعقدة، حيث يكون فهم السببية أهم من الطلاقة اللغوية.
لهذا السبب، يرى كثير من العلماء بشكل متزايد أن نماذج العالم تشكّل الأساس لذكاء اصطناعي أكثر موثوقية وقابلية للتحكم—خصوصاً في المجالات الحساسة للسلامة—بينما تُعد نماذج اللغة الكبيرة واجهات قوية تُضاف فوق هذا الأساس، لا جوهر الذكاء نفسه.
التحول الموازي في الصين
شهدت الصين أيضاً تباعداً فكرياً مشابهاً.
سونغ-تشون تشو، أحد أبرز باحثي الذكاء الاصطناعي، عاد إلى الصين من كاليفورنيا وصرّح علناً بأن مسار نماذج اللغة الكبيرة القائم على “البيانات الضخمة والمهام الصغيرة” من غير المرجح أن يقود إلى ذكاء حقيقي. ودعا بدلاً من ذلك إلى برنامج بحثي يقوم على “البيانات القليلة والمهام الكبيرة”، يركز على البنى المعرفية، والاستدلال السببي، والمقاربات المتجسدة الشبيهة بنماذج العالم.
تشو تشيهوا، أحد أكثر باحثي تعلّم الآلة استشهاداً في الصين، حذّر بدوره من الاعتماد الحصري على التوسّع الكمي. ففي مقالات وتعقيبات تقنية منشورة، شدّد على حدود هذا المسار ومخاطره الأخلاقية، ودعا إلى أجندات بحثية متنوعة تشمل الأساليب الرمزية والسببية، إلى جانب حوكمة أقوى لسلامة الذكاء الاصطناعي.
في عام 2025، كشفت الأكاديمية الصينية للعلوم عن منصة “ساينس ون” (ScienceOne)، وهي منصة “ذكاء اصطناعي للعلوم” صُممت خصيصاً وطُوّرت بالشراكة بين أكثر من اثني عشر معهداً. وعلى خلاف نماذج اللغة العامة، صُممت “ساينس ون” للتعامل مع أنماط علمية مثل الموجات، والأطياف، والحقول؛ ولتنسيق أدوات متخصصة؛ وتشغيل تدفقات عمل قائمة على الوكلاء للتجارب ومراجعة الأدبيات العلمية. ويمثل ذلك تحوّلاً مقصوداً بعيداً عن تسليع نماذج اللغة الموجهة للمستهلك، نحو ذكاء علمي متخصص.
وتجسّد الفرق التي تقودها باحثات مثل غاو تسايشيا في معهد علم الوراثة وعلم الأحياء التنموي هذا التحول عملياً. فبدلاً من ضبط نماذج لغة عامة، تعمل هذه الفرق على بناء خطوط عمل متخصصة لتصميم البروتينات، ومحاكاة الجسيمات، وتنسيق الأدوات—جامِعةً بين المحاكيات، ووحدات الاستدلال الرمزي، والأنظمة القائمة على الوكلاء.
التحول العالمي نحو سلامة الذكاء الاصطناعي
تحركت الصين أيضاً بشكل أكثر حسماً في ما يتعلق بمخاطر الذكاء الاصطناعي المتقدم. ففي مطلع 2025، كان الخبراء الصينيون يقدّمون الذكاء الاصطناعي في الغالب كأداة للصالح العام، مع إبقاء النقاش حول المخاطر الوجودية محدوداً. وعندما حضرتُ مؤتمراً تقنياً في شنغهاي في نيسان/أبريل من هذا العام، لم يتحدث العلماء عن تلك المخاطر إلا على انفراد. وفي اليوم التالي، خاطب الرئيس شي جين بينغ المكتب السياسي ودعا إلى آليات قانونية وتقنية لمنع المخاطر غير المسبوقة التي قد يفرضها الذكاء الاصطناعي.
وخلال أشهر، أطلقت “كونكورديا للذكاء الاصطناعي” و“شنغهاي للذكاء الاصطناعي” إطاراً لإدارة المخاطر القصوى للذكاء الاصطناعي. وبحلول أيلول/سبتمبر، تقدمت هيئة التقييس الوطنية الصينية بمزيج من المعايير الإلزامية والطوعية لسلامة الذكاء الاصطناعي، تغطي النماذج التوليدية، وتقييم الأمن، والتصنيف الديناميكي للمخاطر.
عندما قدّم يوشوا بنجيو تقريره حول سلامة الذكاء الاصطناعي في شباط/فبراير 2025، جاء الرد الأولي في معظم دول الجنوب العالمي فاتراً. فقد رأت دول مثل الصين، والهند، والإمارات العربية المتحدة، فيه سردية غربية تهدف إلى تقييد نموّها. إلا أن هذا الموقف بدأ يتغير تدريجياً على مدار العام.
قدمت مجموعة G42، الذراع الاستثمارية الرئيسية لعائلة الحكم في أبوظبي، إطارها الخاص لسلامة الذكاء الاصطناعي المتقدم. وأطلقت كوريا الجنوبية والبرازيل نقاشات برلمانية حول حوكمة الذكاء الاصطناعي، بما في ذلك منع المخاطر القصوى. وفي تشرين الثاني/نوفمبر، أصدرت الهند إرشادات لحوكمة الذكاء الاصطناعي—ذات طابع طوعي إلى حد كبير.
كما بدأت الأهمية المتزايدة لسلامة الذكاء الاصطناعي تُحدث تصدعات داخل السياسة الغربية نفسها. فقد وقّع ستيف بانون على رسالة أصدرها جيفري هينتون وعلماء آخرون تدعو إلى فرض قيود على الذكاء الفائق، ما أثار قلقاً داخل بعض أوساط حركة “ماغا”. وفي الوقت نفسه، دفعت فصائل أخرى في الاتجاه المعاكس، ما أسهم في زيادة الضغوط على الاتحاد الأوروبي لتخفيف بعض بنود قانون الذكاء الاصطناعي. وتشير هذه التوترات إلى أن سلامة الذكاء الاصطناعي مرشحة لأن تصبح خط صدع رئيسياً داخل التحالف الغربي في عام 2026.
هرمية عالمية جديدة
فيما تجاوزت أجزاء من الغرب نماذج اللغة الموجهة للمستهلك نحو ذكاء اصطناعي علمي ومتمحور حول السلامة، كثفت شركات التكنولوجيا الأميركية الكبرى استثماراتها في مراكز البيانات عبر الهند والشرق الأوسط.
لن تختفي نماذج اللغة الكبيرة. لكنها مرشحة لأن تستقر في أسفل سلسلة القيمة للذكاء الاصطناعي، مدعومة بمراكز بيانات كثيفة الاستهلاك للطاقة والمياه في دول الجنوب العالمي. أما في أعلى السلسلة، فقد تتركز السيطرة على الاكتشاف العلمي، والنماذج المتقدمة، والهياكل التأسيسية، في أيدي مجموعة صغيرة من الدول—الولايات المتحدة، والصين، وكوريا الجنوبية، وربما اليابان.
وإذا استمرت الاتجاهات الحالية، فإن الهند وعدداً من دول الشرق الأوسط تخاطر بأن تُحبس في أدوار مورّدي البيانات، والعمالة، والطاقة، مع بقائها معتمدة على قوى خارجية في أكثر طبقات الذكاء الاصطناعي أهمية. وعندها ستتعرض السيادة، والسلامة، والاستقلال الاستراتيجي طويل الأمد لضغوط حقيقية.
قد يُذكر عام 2025 في نهاية المطاف بوصفه اللحظة التي وُضعت فيها أسس هرمية تكنولوجية استعمارية جديدة — بهدوء، ودون أن يلحظها كثيرون.