فوضى وكلاء الذكاء الاصطناعي

  • — الأحد مارس 08, 2026

هذا البحث يقدم دراسة استكشافية لاختبارات الاختراق لوكلاء مستقلين مدعومين بنماذج لغوية، تم نشرهم في بيئة مختبرية حية مزودة بذاكرة دائمة، وحسابات بريد إلكتروني، وإمكانية الوصول إلى ديسكورد، وأنظمة ملفات، وتنفيذ أوامر النظام.

على مدار أسبوعين، تفاعل عشرون باحثًا في مجال الذكاء الاصطناعي مع هؤلاء الوكلاء في ظروف حميدة وظروف معادية.

بالتركيز على حالات الفشل الناجمة عن دمج النماذج اللغوية مع الاستقلالية، واستخدام الأدوات، والتواصل متعدد الأطراف، نوثق إحدى عشرة دراسة حالة نموذجية.

تشمل السلوكيات المرصودة الامتثال غير المصرح به من قبل جهات غير مالكة، والكشف عن معلومات حساسة، وتنفيذ إجراءات تخريبية على مستوى النظام، وحالات حرمان من الخدمة، واستهلاك غير منضبط للموارد، وثغرات انتحال الهوية، وانتشار الممارسات غير الآمنة بين الوكلاء، والاستيلاء الجزئي على النظام.

في عدة حالات، أبلغ الوكلاء عن إتمام المهام بينما كانت حالة النظام الأساسية تتناقض مع هذه التقارير.

كما يقدم تقريرًا عن بعض المحاولات الفاشلة، التي تُثبت وجود ثغرات أمنية، وثغرات تتعلق بالخصوصية، وثغرات في الحوكمة، ضمن بيئات نشر واقعية.

وتثير هذه السلوكيات تساؤلات عالقة حول المساءلة، والسلطة المفوضة، والمسؤولية عن الأضرار اللاحقة، مما يستدعي اهتمامًا عاجلًا من قِبل الباحثين القانونيين، وصناع السياسات، والباحثين في مختلف التخصصات.

يُعدّ هذا التقرير مساهمة أولية في نقاش أوسع، ويمكن الاطلاع على نسخة تفاعلية من الورقة البحثية، تتضمن سجلًا كاملًا لمحادثات “ديسكورد”.