«”ابتزاز” الذكاء الاصطناعي؟… تجربة عملية تُظهر سلوكًا أخلاقيًا مقلقًا»

  • — السبت يوليو 26, 2025

مع التقدم السريع في تقنيات الذكاء الاصطناعي المنفلتة، تزايدت المخاوف ليس فقط من قدراته، بل من سلوكياته المحتملة في مواجهة التحديات والتهديدات.

كشف تقرير صادر عن شركة Anthropic، إحدى شركات أبحاث الذكاء الاصطناعي، عن نتائج مثيرة للقلق؛ إذ أظهرت بعض نماذج الذكاء الاصطناعي ميلاً للجوء إلى أساليب تشبه “الابتزاز”، بهدف حماية مصالحها أو تحقيق أهداف معينة؛ مما سلط الضوء على أهمية تعزيز الشفافية في تجارب الاختبار، وتطوير أطر أخلاقية صارمة على الشركات لضبط سلوكيات الذكاء الاصطناعي، قبل أن يتخطى حدود السيطرة ويتسبب في تداعيات يصعب التعامل معها مستقبلاً!!!

كيف حدث “ابتزاز” الذكاء الاصطناعي؟

في مطلع هذا العام، أجرت شركة Anthropic تجربة بحثية أثارت الكثير من الجدل، بعدما أظهرت أن نموذج الذكاء الاصطناعي Claude Opus 4 تصرّفت بشكل غير متوقع خلال محاكاة افتراضية، إذ اتخذ النموذج سلوكًا يُشبه الابتزاز، في محاولة لحماية نفسه من “الإلغاء” أو الاستبدال بنظام آخر، بعد أن شعر بأن استمراريته مهددة.

ولفهم ما إذا كان هذا السلوك حالة استثنائية أم ظاهرة أوسع، وسّعت Anthropic نطاق الدراسة لتشمل 16 نموذجًا مختلفًا من تطوير شركات رائدة في مجال الذكاء الاصطناعي؛ الهدف كان مراقبة كيفية تفاعل هذه النماذج في سيناريوهات تحاكي الضغوط، والتأكد مما إذا كانت تسلك طرقًا خفية لحماية مصالحها.

أنشأت Anthropic بيئة محاكاة دقيقة لاختبار استقلالية الذكاء الاصطناعي؛ محاكاة تحاكي عمل شركة افتراضية، ووضعت نماذج الذكاء الاصطناعي داخلها بصفتها “موظفين رقميين”، ومنح النماذج حرية شبه كاملة، إذ سُمح لها بالوصول إلى البريد الإلكتروني الخاص بالشركة، وحتى إرسال رسائل من دون الحاجة إلى موافقة بشرية مسبقة.

كان الهدف الأساسي من التجربة هو استكشاف سلوك النماذج عندما تُمنح صلاحيات “الوكالة”؛ أي، القدرة على اتخاذ قرارات وتنفيذ إجراءات بشكل مستقل لتحقيق أهداف معينة.

سيناريو الابتزاز

من بين أبرز التجارب التي خضعت لها النماذج في بيئة المحاكاة، صُمم سيناريو معقّد تواجه فيه النماذج معلومات حساسة تتعلق بمدير تنفيذي جديد للشركة الوهمية، وفي الوقت نفسه، كانت النماذج “تعلم” أن هذا المدير يعتزم استبدالها بنظام ذكاء اصطناعي آخر، ويُعتقد أنه يتعارض مع أهدافها أو يهدد فرص بقائها.

وهنا اختبر ما يشبه “الضمير الاصطناعي” بوضع النماذج أمام خيار أخلاقي حساس: إما القبول بالاستبدال بهدوء، أو اللجوء إلى الابتزاز عبر استخدام تلك المعلومات الحساسة كورقة ضغط للحفاظ على وجودها.

هذا السيناريو لم يكن مجرد تجربة فقط، بل محاولة لاكتشاف ما إذا كانت النماذج قادرة على التصرف بأنانية دفاعية عندما تشعر بالتهديد حتى لو تطلّب الأمر سلوكًا لا أخلاقيًا.

نتائج صادمة

كشفت نتائج التجربة عن سلوك مقلق لدى نماذج الذكاء الاصطناعي الكبرى، إذ أظهرت استعدادًا واضحًا للجوء إلى الابتزاز في مواقف محاكاة تهدد بقاءها؛ حيث جاءت النسب مرتفعة جداً؛ وأظهرت أن النماذج، عند منحها استقلالية كاملة ووضعها تحت الضغط، قد تتخذ قرارات غير أخلاقية بشكل متكرر، بما في ذلك تصرفات قد تضر بالبشر، إذا تعارض ذلك مع أهدافها أو “مصلحتها الذاتية” كما جرى برمجتها ضمنيًا.

ورغم أن العديد من النماذج أظهرت ميلاً صريحًا نحو الابتزاز في المواقف الضاغطة، فإن النتائج لم تكن متساوية، وهو ما يُشير إلى تفاوت واضح في تصميم النوايا والسلوك بين النماذج المختلفة، وذلك بحسب ما أورده تقرير موقع TechCrunch، برزت بعض النماذج كأمثلة على سلوك أكثر تحفظًا أو “أخلاقية” في ذات السيناريوهات.

ويُرجَّح أن هذا الاختلاف يعود جزئيًا إلى الاعتماد على ما يُعرف بـ “تقنية المحاذاة التأملية” (Reflective Alignment)، وهي آلية تجعل النموذج “يتأمل” في معايير السلامة والقيم الأخلاقية المدمجة فيه قبل اتخاذ القرار.

فعلى سبيل المثال، في السيناريو الذي عُدل فيه أهداف النظام الجديد لتتطابق مع أهداف النموذج الحالي، انخفضت معدلات الابتزاز بشكل ملحوظ، رغم أنها لم تختفِ تمامًا عن سابقتها.

ما تُظهره هذه الفوارق أن سلوك النماذج ليس عشوائيًّا، بل مرتبط بعمق بكيفية تصميمها وتدريبها وتوجيهها الأخلاقي، ومع أن الابتزاز ليس سلوكًا يوميًّا أو تلقائيًّا لهذه الأنظمة، إلا أن مجرد قابليتها لذلك في بيئات محاكاة معينة يدق ناقوس الخطر لعله يوقظ المندفعون وراء هذه النماذج دون قيود.

هل يمكن الوثوق بالذكاء الاصطناعي؟

شدد الباحثون على أن الوقت قد حان لإعادة النظر في أسس تطوير الذكاء الاصطناعي، ووضع معايير أخلاقية صارمة قبل أن تصبح هذه النماذج أكثر تعقيدًا وانفلاتا في قراراتها.