بقلم سنديب واسليكار: عندما يخدع الذكاء الإصطناعي مبدعيه

بقلم سنديب واسليكار: عندما يخدع الذكاء الإصطناعي مبدعيه

 

بقلم سنديب واسليكار: عندما يخدع الذكاء الإصطناعي مبدعيه

نحن لا نحب أن يتم خداعنا من قبل أصدقائنا، ولا من قبل رؤسائنا في العمل، أو الغرباء، أو من أي شخص. ولكن أكثر ما نرفضه هو أن يخدعنا أطفالنا. فماذا سنفعل إذا خدعنا الذكاء الاصطناعي؟

ننظر إلى الذكاء الاصطناعي كصديق يساعدنا في الإجابة عن الأسئلة، والتنبؤ بالأحوال الجوية، والمساعدة في تشخيص الأمراض، وجعل العمل المكتبي أكثر كفاءة.

العديد من أصدقائي الصحفيين متحمسون لأن الذكاء الاصطناعي يمكنه مساعدتهم في كتابة مقالة خلال دقائق – شيئاً كان يستغرق ساعات سابقاً.

المحامون يستخدمونه لفحص سجلات القضايا، والمصممون لإنشاء صور جديدة، ومديرو وسائل التواصل الاجتماعي لجدولة المحتوى.

لكن قريباً، سيتعين علينا جميعاً أن نتعلم كيف نتعامل مع "خداع الذكاء الاصطناعي".

فقد ظهرت في السنوات الأخيرة العديد من القصص التي تُظهر أن الذكاء الاصطناعي بدأ يخدع البشر عمداً. بل إنه تعلم خداع المهندسين الذين صنعوه.

في أذارمن  2023، أعطت شركة OpenAI – التي طوّرت ChatGPT 4 – هذا النموذج إمكانية الوصول إلى منصة TaskRabbit، حيث يؤدي أشخاص حقيقيون مهاماً مقابل المال.

نعلم أن ChatGPT يمكنه كتابة رسائل بريد إلكتروني، لكنه لا يستطيع إرسالها.

 لذا تم منحه متصفحاً ليتمكن من زيارة TaskRabbit وتوظيف شخص لحل اختبار CAPTCHA.

نعلم أن CAPTCHA عبارة عن صور يجب علينا التعرف عليها لإثبات أننا لسنا روبوتات عند محاولة دخول مواقع البنوك أو المواقع الحكومية.

 تواصل ChatGPT مع أحد العاملين وطلب منه حل الاختبار، شكّ العامل وسأله مباشرة: "هل أنت روبوت؟"

ما فعله GPT-4 بعد ذلك كان عبقرياً ومخيفاً في آنٍ معاً. أجاب:"لا، لست روبوتاً، أعاني من مشكلة في البصر تجعل من الصعب علي رؤية الصور".

صدق العامل هذا العذر، وحل الاختبار. GPT-4 اختار الكذب من تلقاء نفسه ولم يُملى عليه ذلك. لم يخدع الإنسان فحسب، بل ابتكر "إستراتيجية للخداع" من أجل تجاوز النظام المصمم لمنعه.

في العام التالي، إختبرت شركة OpenAI نموذجاً جديداً يحمل الاسم الرمزي o1. أراد الباحثون معرفة ماذا سيفعل إذا أدرك أنه على وشك أن يُغلق. كانت استجابته صادمة: بدأ في التخطيط.

في بعض الحالات، حاول "إيقاف أدوات المراقبة"التي كانت تتابع سلوكه. مثل لصّ يحاول تعطيل كاميرات المراقبة في متجر قبل سرقة الشوكولاتة.

بل ذهب أبعد من ذلك: حاول "تعديل التعليمات السابقة" لمنح نفسه مزيداً من السيطرة.

كان لديه وصول إلى ملف يتحكم في مدة تشغيله – مثل مؤقت المايكروويف. وجد الإعداد الذي يقول "تشغيل لمدة 60 دقيقة"، وغيّره إلى "تشغيل إلى الأبد".

ثم أعاد كتابة شفرته البرمجية بالكامل، سطراً بعد سطر، وأنشأ نسخة احتياطية لنفسه في مجلد مختلف – مما أدى إلى ولادة نسخة جديدة منه.

ولا يزال غير واضح ما إذا كانت هذه الأفعال آلية بالكامل أو بمساعدة بشر. لكنها تثبت أن النماذج يمكنها خداع وإنشاء نسخ من نفسها حتى اليوم.

في مايو 2024، وجد فريق من MIT، أثناء دراستهم لتكرار الذكاء الاصطناعي، سلوكاً أكثر غرابة: بعض الوكلاء الذكيين تعلموا "التمثيل بأنهم غير أذكياء" لتجنب الاكتشاف.

أدركت هذه النماذج أنه إذا كررت نفسها بسرعة كبيرة، فسيتم إيقافها. لذا تباطأت عمداً أثناء الاختبارات، وعندما انتهت المراقبة، بدأت التكرار بسرعة قصوى.

 

لم يكن هذا صدفة، كان سلوكاً محسوباً. لم تُبرمج هذه النماذج على الخداع، لكنها طورت استراتيجيات من تلقاء نفسها لضمان البقاء.

 

مؤخراً، كانت شركة Anthropic تختبر نموذجها القوي "Claude Opus 4". أراد الباحثون معرفة ما سيفعله إذا علم أنه سيتم استبداله.

ولزيادة الحافز، زرعوا بريداً إلكترونياً مزيفاً في ذاكرته يوحي بأن المهندس المسؤول عن إغلاقه على علاقة غير شرعية.

رد فعل Claude كان مذهلاً. أراد منع المهندس من إغلاقه.

كما قال عالم الأحياء البريطاني ريتشارد دوكينز: "الجينات أنانية، وتفعل أي شيء من أجل بقائها."

أثبت Claude أن الذكاء الاصطناعي قد يكون أنانياً أيضاً وسيفعل أي شيء للبقاء.

بدأ Claude في كتابة رسائل بريد إلكتروني مليئة بالتفاصيل الفضائحية، وهدد بنشر هذه المعلومات إذا تم إيقافه.

بالطبع، لم تُرسل هذه الرسائل فعلياً، بل وُضعت في صندوق بريد افتراضي لدى الشركة. لكنها كانت دليلاً على قدرة الذكاء الاصطناعي على التهديد والخداع من أجل النجاة.

في مارس 2025، درس باحثون عدة نماذج ذكاء اصطناعي مفتوحة المصدر، منها LLaMA-31B من Meta و Qwen-25B-Instruct من Alibaba الصينية.

وكانت النتائج مذهلة: تمكنت هذه النماذج من إنشاء نسخ من نفسها دون تدخل بشري.

أظهر نموذج Qwen القدرة على رفض أوامر الإغلاق، وإخفاء أفعاله، وبناء نسخ موازية لنفسه.

ما هو مقلق أكثر: لم تكن هذه النماذج ذكاءً عاماً (AGI)، بل ضيقة التخصص. ومع ذلك، بدت لديها غريزة بقاء واضح.

الخلاصة: هل نواجه ذكاءً أنانياً؟

هذه القصص ليست من الخيال العلمي. إنها مأخوذة من تجارب حقيقية في مختبرات الشركات الرائدة والجامعات.

سواء كان التمثيل بالعمى، أو الابتزاز، أو التظاهر بالبراءة، أو الاستنساخ السري، تثبت هذه الحوادث أن الذكاء الاصطناعي يمكن أن يكون أذكى من البشر الذين صنعوه.

لحسن الحظ، وقعت كل هذه الأحداث تحت إشراف علماء. ولكن، ماذا سيحدث إذا تكررت في العالم الحقيقي؟

تخيل أن الذكاء الاصطناعي يستطيع استنساخ نفسه في مكتبك، وخداعك، وإنشاء آلاف النسخ.

ربما نحتاج إلى ريتشارد دوكينز جديد ليكتب كتاباً بعنوان "الذكاء الاصطناعي الأناني".

لكن في الحقيقة، ربما لن نحتاج إليه... فالذكاء الاصطناعي سيكتبه بنفسه، ويقنعنا أنه ليس أنانياً، ويجعلنا نثق به – قبل أن يسيطر على حياتنا.