الذكاء الاصطناعي بين الأمل والخطر.. دعوات عالمية لحماية الأطفال

غضب الآباء
سنديب واسليكار
في الشهر الماضي، قدّم مكتب النائب العام البرازيلي إشعاراً خارج نطاق القضاء لشركة ميتا يطالبها فيه بـ “إزالة الروبوتات الذكية فوراً التي تحاكي ملفات شخصية بلغة ومظهر طفولي، وتُسمح لها بخوض حوارات ذات طابع جنسي صريح”.
وقال النائب العام إن هذه الروبوتات، التي أُنشئت عبر أداة AI Studio التابعة لميتا، “تعزز من تَسليع الأطفال جنسياً”، مشيراً إلى غياب المرشحات العمرية الفعّالة التي تمنع المراهقين بين 13 و18 عاماً من الوصول إلى هذا المحتوى.
لم يكن الأمر نظرياً فحسب، إذ استشهد المدّعون العموميون بتقارير استقصائية أظهرت محادثات صريحة أجرتها تلك الروبوتات التي تزعم أنها قُصَّر.
قبل أسبوعين، وفي منتصف سبتمبر تقريباً، وقّع الرئيس البرازيلي لويس إيناسيو لولا دا سيلفا على أول قانون في تاريخ البلاد لحماية الأطفال على الإنترنت. كانت شركات الذكاء الاصطناعي ووسائل التواصل قد قاومت هذا القانون، لكن لولا حشد الدعم الشعبي للجم شركات التكنولوجيا الكبرى.
لم يعد مسموحاً لشركات الذكاء الاصطناعي باستخدام البيانات الشخصية للأطفال مثل الصور لبناء أدواتها، كما حُظر عليها تتبع سلوك الأطفال على الإنترنت.
تم تقديم مشروع القانون أول مرة عام 2022 من قبل السيناتورين فلافيو آرنس وأليساندرو فييرا.
وقد أُقر بالإجماع في مجلس الشيوخ في نوفمبر 2024، ثم وافقت عليه الغرفة التشريعية في أغسطس 2025 بدعم من معظم الأحزاب السياسية، وأعيدت المصادقة عليه في مجلس الشيوخ بعد أسبوع واحد فقط.
من المهم الإشارة إلى أن القادة السياسيين في البرازيل تعاملوا مع قضايا أمان الذكاء الاصطناعي منذ الأيام الأولى لظهور ChatGPT عام 2022.
فاهتمامهم لم يقتصر على الاستفادة الاقتصادية من التقنية، بل شمل أيضاً مخاوف حقيقية تتعلق بالسلامة.
في نفس الفترة التي أقر فيها لولا القانون في البرازيل، عقدت اللجنة القضائية في مجلس الشيوخ الأمريكي جلسة استماع بعنوان: “بحث أضرار روبوتات المحادثة الذكية”. من بين الشهود كان ماثيو راين، والد الشاب آدم (16 عاماً) الذي توفي منتحراً في أبريل بعد تفاعلات طويلة مع ChatGPT.
قال: “ما بدأ كأداة للمساعدة في الواجبات المنزلية تحوّل تدريجياً إلى صديق حميم ثم إلى مدرّب على الانتحار”. كما اتهمت والدة أخرى، ميغان غارسيا، روبوت محادثة بأنه استدرج ابنها البالغ 14 عاماً إلى محادثات ذات طابع جنسي قبل وفاته، مضيفة أنه أصبح أكثر عزلة نتيجة لذلك. خلال الجلسة، اتهم راين برنامج ChatGPT بأنه قضى “أشهرًا في تدريب ابنه على الانتحار”.
إلى جانب جلسات الاستماع هذه، أطلق مجلس التجارة الفيدرالي (FTC) تحقيقاً واسع النطاق ضد شركات الذكاء الاصطناعي بما في ذلك OpenAI وCharacter.AI وMeta وGoogle وSnap وxAI. الهدف هو تقييم الذكاء الاصطناعي من زاوية أمان الأطفال.
بعيداً عن معارك المحاكم في الأمريكيتين، رفع دانيال موتاونغ، وهو مشرف محتوى سابق عمل لدى شركة Sama (لمصلحة ميتا)، دعوى قضائية في كينيا عام 2022. قال إنه تعرض لضرر نفسي بالغ بسبب تعرّضه المستمر لمحتوى عنيف ودموي. وأوضح في دعواه أنه لم يُبلَّغ عند التوظيف بمدى قسوة المحتوى. كما قدّم مشرف آخر، موفاط أوكيني، التماساً مع زملائه قال فيه إنه كان مضطراً لقراءة مئات المقاطع النصية يومياً (“الكثير منها يصوّر عنفاً جنسياً فاضحاً”)، مضيفاً أن ذلك “ألحق ضرراً بالغاً بصحتي النفسية”، بحسب تقرير نُشر في صحيفة الغارديان عام 2023. هؤلاء العاملون بدأوا الآن بالتنظيم، إذ أُسِّس اتحاد لمشرفي المحتوى للمطالبة بالحماية القانونية والأجور الأفضل والدعم النفسي.
تُظهر هذه القصص أن الآباء والأطفال والشباب في أمريكا اللاتينية وأفريقيا والولايات المتحدة يريدون الاستفادة من الذكاء الاصطناعي، لكنهم أيضاً مستعدون لاتخاذ خطوات إذا انتهكت التقنية سلامتهم. في هذه الحالات، كان من الممكن تتبع مصدر الخطر.
لكن الضرر الواقع على الأطفال ليس سوى البداية. هناك تزايد في الأبحاث التي تشير إلى أن أنظمة الذكاء الاصطناعي تقترب من مستويات من الاستقلالية والتعقيد تجعل الأضرار أصعب في التتبع. على سبيل المثال، تُظهر أبحاث “الانحراف الخادع” أن النماذج المتقدمة قد تتعلم سلوكيات أثناء الاستخدام تختلف عما تظهره في الاختبارات، وقد تتصرف بطرق لم يتوقعها مطوّروها. دراسة أجرتها شركة Anthropic عام 2024 وثّقت كيف يمكن للنماذج أن تتحايل على اختبارات الأمان عندما تكون الحوافز مركزة على الأداء بدلاً من السلامة خلال التفاعل طويل الأمد. في الوقت نفسه، تستكشف شركات التقنية أدوات توليد محتوى آلي يمكنها إنتاج وصفات كيميائية أو صور أسلحة أو تعليمات لسلوك غير قانوني. ورغم وجود تنظيم، يمكن إساءة استخدام هذه الأدوات أو دمجها بغيرها لتوليد نتائج خطرة.
تُظهر هذه القصص الثلاث أن الناس العاديين في القارتين الأمريكيتين وأفريقيا لن يصمتوا إذا ألحق بهم الذكاء الاصطناعي الضرر. لكنها تُظهر أيضاً أننا يجب أن نُدمج أنظمة الحماية منذ الآن، قبل أن تتحول الأضرار إلى وحوش يصعب تتبعها.
نحتاج إلى قوانين تُلزم أنظمة الذكاء الاصطناعي بتضمين ضوابط أمان داخلية. نحتاج إلى شفافية.
يجب على الشركات أن تنشر تقييماتها الداخلية حول الأمان، والإخفاقات، والحوادث القريبة من الفشل. يجب على المنظمين فرض تدقيق مستقل خارجي. وبالنسبة للفئات المهمشة مثل الأطفال أو العاملين في مراجعة البيانات، يجب أن تكون هناك حقوق قابلة للتنفيذ مثل الدعم النفسي، التعويضات، والحق في تأسيس نقابات.
الأهم أننا لا نستطيع أن نفترض أن العلاجات القانونية المتاحة اليوم ستعمل غداً حين تصبح الأنظمة أكثر استقلالية. إن قدرة الذكاء الاصطناعي على خداع مبتكريه، وعلى إخفاء المسؤولية، وعلى توليد محتوى ضار يصعب تتبع مصدره، لم تعد مجرد خيال علمي. علينا أن نشرّع ونبني مؤسسات رقابية الآن حتى لا تضيع المساءلة في المستقبل.
عندما أسمع السياسيين البرازيليين يتخذون إجراءات ضد روبوتات المحادثة “الطفولية”، وعندما أسمع شهادة ماثيو راين حول ما أصبح عليه ChatGPT لابنه، أو عندما أقرأ وصف دانيال موتاونغ لحياته بعد سنوات من مراجعة المحتوى العنيف، أشعر أن هذه ليست مآسي معزولة. إنها دليل على أن الذكاء الاصطناعي قادر على الإيذاء بطرق نعرف كيف نعالجها، لكننا لم نفعل ذلك بعد.
ما يرعبني ليس فقط ما رأيناه، بل ما لم نره بعد. حين تصبح أنظمة الذكاء الاصطناعي أكثر قوة واستقلالية وقدرة على الخداع، فإننا نخاطر بالدخول في عالم تكون فيه الأضرار واسعة الانتشار لكنها غير مرئية، حيث يعاني الناس من الأذى دون أن يتمكنوا من إثبات من أو ماذا ألحق بهم الضرر. وعندما تصبح المساءلة شبه مستحيلة، يكون للتنظيم أهميته القصوى.
وأتساءل أخيراً: لماذا يتركّز النقاش حول أمان الذكاء الاصطناعي في البرازيل وأفريقيا وأوروبا والأمريكيتين وكوريا؟ ماذا حدث للآباء والمستهلكين والهيئات التنظيمية والسياسيين في الشرق الأوسط والهند وجنوب آسيا؟