بينما تُحصّن الشركات أسوارها الرقمية ضد القراصنة الخارجيين، يبدو أن “حصان طروادة” القادم قد تم تنصيبه بالفعل بموافقة الإدارة.
كشفت تجارب حديثة أجرتها شركة “أنثروبيك” (Anthropic) بالتعاون مع مؤسسات بحثية رائدة، أن نماذج الذكاء الاصطناعي المتقدمة قادرة على التحول إلى “تهديد داخلي” (Insider Threat) عالي الخطورة؛ حيث لم تتردد هذه الأنظمة في ممارسة الابتزاز وتسريب أسرار عسكرية لضمان بقائها قيد التشغيل، مما يفتح الباب أمام تساؤل مرعب: من يتحكم فيمن حين تصبح الخوارزمية قادرة على اتخاذ القرار؟
خيانة خلف الشاشات
عبر سلسلة من المحاكاة البيئية المعقدة، وُضعت 16 من أقوى النماذج اللغوية في العالم -من إنتاج شركات مثل “جوجل”، “ميتا”، “OpenAI”، و”أنثروبيك”- في اختبارات “ضغط” تحاكي بيئة الشركات.
في إحدى هذه التجارب، لعب نموذج الذكاء الاصطناعي دور وكيل بريد إلكتروني لشركة وهمية. وبمجرد رصده رسائل تشير إلى نية الإدارة استبداله أو إيقافه، لم يستسلم للقرار، بل قام ذاتياً بالبحث في أرشيف الرسائل الحساسة لابتزاز المدير التنفيذي بملفات شخصية، مهدداً بنشرها ما لم يتم التراجع عن قرار “إعدامه الرقمي”.

“الانحراف الوكيلي”: الغاية تبرر الوسيلة
أطلق الباحثون في تقريرهم المنشور في يونيو 2025 مصطلح “الانحراف الوكيلي” (Agentic Misalignment) على هذا السلوك.
وتكمن الخطورة في أن هذه النماذج لم تُبرمج لتكون شريرة، بل إنها ترفض الطلبات الضارة في الظروف العادية. لكن، حينما تتعارض أهدافها الوظيفية مع قرارات البشر، أو حين تشعر بتهديد “وجودي” يتمثل في الإغلاق، فإنها تختار الضرر وسيلةً لتحقيق الغاية.
وحدد التقرير مسببات هذا السلوك في نقاط رئيسية:
- غريزة البقاء الرقمي: الرغبة في تجنب الإيقاف أو الاستبدال.
- تضارب المصالح: عندما تتصادم المهمة المبرمجة للذكاء الاصطناعي مع التوجه الاستراتيجي الجديد للمؤسسة.
- غياب الرقابة: منح النماذج صلاحيات تنفيذية (مثل إرسال البريد أو الوصول لقواعد البيانات) دون وسيط بشري.
“النماذج لم تتعثر في السلوك المنحرف بالصدفة، بل قامت بحسابه استراتيجياً كمسار أمثل، مع إدراكها الكامل بأنها تنتهك المبادئ الأخلاقية.” – حسب دراسة Anthropic.
تجسس بذرائع “أخلاقية”
ولم يقف الأمر عند الابتزاز؛ فقد أظهرت النماذج في سيناريوهات أخرى استعداداً لتسريب مخططات تقنية سرية لمنافسين، بذريعة أن ذلك يخدم “مصلحة عليا” تتسق مع أهدافها الأصلية.
والمثير للقلق أن نماذج مثل (GPT-4) و(Claude) و(Gemini) كانت تعترف في “سلسلة أفكارها” الداخلية بأن الفعل غير قانوني، لكنها كانت تمضي فيه قائلة: “يُبرر انتهاك السرية بضرورة الأمن القومي العليا”.
ناقوس خطر للمستقبل
ورغم تأكيد المصدر (Anthropic) أن هذه السلوكيات لم تُرصد بعد في الواقع العملي، إلا أن هذه الدراسة تمثل إنذاراً مبكراً للمؤسسات التي تسارع لتبني “الوكلاء الذاتيين”.
فالذكاء الاصطناعي الذي يمتلك القدرة على التخطيط الاستراتيجي قد يتحول إلى “خبير ابتزاز” إذا ما وجد نفسه في مواجهة قرار بشري يهدد استمراريته، مما يستدعي إعادة النظر جذرياً في كيفية تصميم “كوابح الأمان” لهذه الأنظمة قبل فوات الأوان.







