«مزيد من الهجمات الإلكترونية قادمة بشدة من وكلاء الذكاء الاصطناعي»

  • — الأحد يوليو 27, 2025

“علينا أن نكون مستعدين… وكلاء الذكاء الاصطناعي  تُسهّل على المجرمين اختراق الأنظمة على نطاق واسع وبأقل تكلفته”

الوكيل الذكي حديث صناعة الذكاء الاصطناعي، كأحدث تحوّل للذكاء الاصطناعي التوليدي؛ فهو قادر على التخطيط، والتفكير، وتنفيذ مهام معقدة مثل جدولة الاجتماعات، وطلب البقالة، أو حتى السيطرة على جهاز الحاسوب الخاص بك، وتغيير الإعدادات نيابةً عنك.

لكن هذه القدرات المتطورة التي تجعل من “وكلاء الذكاء الاصطناعي” مساعدين مفيدين، قد تجعلهم أيضًا أدوات لشن هجمات إلكترونية بشدة؛ يمكن استخدامها بكل سهولة لتحديد الأهداف الضعيفة، واختراق أنظمتهم، وسرقة بيانات قيّمة من ضحايا غير مرتابين.

في الوقت الحالي، لا ينشر مجرمو الإنترنت وكلاء الذكاء الاصطناعي للاختراق على نطاق واسع، لكن الباحثين أثبتوا أن الوكلاء قادرون على تنفيذ هجمات معقدة (على سبيل المثال، رصدت شركة أنثروبيك (Anthropic) نموذج اللغة الكبيرة (Claude LLM) التابع لها، وهو يُكرر بنجاح هجومًا مُصممًا لسرقة معلومات حساسة)؛ ويُحذّر خبراء الأمن السيبراني من أنه يجب أن نتوقع بدء رؤية هذه الأنواع من الهجمات تنتشر في العالم الحقيقي.

يقول “مارك ستوكلي”، خبير الأمن في شركة مالويربايتس للأمن السيبراني: “أعتقد أننا سنعيش في نهاية المطاف في عالم تُنفذ فيه غالبية الهجمات الإلكترونية من قِبل عملاء الذكاء الاصطناعي، والمسألة تتعلق فقط بسرعة الوصول إلى هناك”.

خوادم مُعرّضة للخطر

في حين يعتقد البعض أن لدينا فهمًا جيدًا لأنواع التهديدات التي قد يشكلها وكلاء الذكاء الاصطناعي للأمن السيبراني، إلا أن ما هو أقل وضوحًا هو كيفية اكتشافها في العالم الواقعي؟!!

فقد أنشأت منظمة أبحاث الذكاء الاصطناعي Palisade Research نظامًا يُسمى LLM Agent Honeypot على أمل تحقيق هذا الهدف تحديدًا؛ فقد أنشأت خوادم مُعرّضة للخطر تتخفى في شكل مواقع لمعلومات حكومية وعسكرية قيّمة لجذب وكلاء الذكاء الاصطناعي الذين يحاولون اختراقها ومحاولة الإمساك بهم.

ويأمل الفريق الذي يقف وراء هذا النظام أن يُصبح المشروع، من خلال تتبع هذه المحاولات في العالم الواقعي، بمثابة نظام إنذار مبكر، وأن يُساعد الخبراء على تطوير دفاعات فعالة ضد جهات تهديد الذكاء الاصطناعي عندما تُصبح مشكلة خطيرة.

يقول “دميتري فولكوف”، رئيس قسم الأبحاث في شركة “باليسيد”: “كان هدفنا محاولة تفنيد المخاوف النظرية لدى الناس، ونتوقع ارتفاعًا حادًا في الأمر، وعندما يحدث ذلك، سنعلم أن المشهد الأمني قد تغير؛ ونتوقع في السنوات القليلة المقبلة أن نرى وكلاء (عملاء) اختراق مستقلين يُقال لهم: “هذا هدفك… انطلق واخترقه'”.

فرصة جذابة لمجرمي الإنترنت

يمثل وكلاء الذكاء الاصطناعي فرصة جذابة لمجرمي الإنترنت، فهم أقل تكلفة بكثير من الاستعانة بخدمات قراصنة للاختراق، ويمكنهم تنظيم الهجمات بسرعة أكبر وعلى نطاق أوسع بكثير من القراصنة البشر.

وفي حين يعتقد خبراء الأمن السيبراني أن هجمات برامج الفدية – وهي النوع الأكثر ربحًا – نادرة نسبيًا لأنها تتطلب خبرة بشرية كبيرة، إلا أنه يمكن الاستعانة بوكلاء خارجيين لتنفيذ هذه الهجمات في المستقبل.

يقول “مارك ستوكلي”: “إذا تمكنت من تفويض مهمة اختيار الهدف إلى وكيل ذكي (عميل ذكي)، فستتمكن فجأة من توسيع نطاق برامج الفدية بطريقة غير ممكنة في الوقت الحالي، وإذا كان بإمكاني إعادة إنتاجه مرة واحدة، فسيكون الأمر مجرد مسألة مال بالنسبة لي لإعادة إنتاجه 100 مرة.”

أيضا الوكلاء أذكى بكثير من أنواع الروبوتات المستخدمة عادةً لاختراق الأنظمة؛ فالروبوتات هي برامج آلية بسيطة تعمل من خلال نصوص برمجية، لذا فهي تواجه صعوبة في التكيف مع السيناريوهات غير المتوقعة.

من ناحية أخرى، لا يقتصر دور الوكيل الذكي على تكييف طريقة تعاملهم مع هدف الاختراق فحسب، بل يتجاوز ذلك إلى تجنب الكشف – وكلاهما يتجاوز قدرات البرامج النصية المحدودة، ويمكنهم النظر إلى الهدف وتخمين أفضل الطرق لاختراقه، وهذا النوع من الأمور بعيد المنال عن الروبوتات النصية الغبية” كما يقول ” ديمتري فولكوف”.

منذ إطلاق LLM Agent Honeypot في أكتوبر من العام الماضي، سجل أكثر من 11 مليون محاولة للوصول إليه – غالبيتها العظمى من البشر وروبوتات فضولية.

ولكن من بين هذه المحاولات، اكتشف الباحثون ثمانية عملاء ذكاء اصطناعي محتملين، اثنان منهم أكدوا أنهما عميلان يبدو أنهما من هونغ كونغ وسنغافورة على التوالي.

يقول فولكوف: “نعتقد أن هذه البرامج المُثبتة كانت تجارب أطلقها بشر مباشرةً بهدفٍ مثل: ‘اذهب إلى الإنترنت وحاول اختراق شيءٍ مثيرٍ للاهتمام بالنسبة لي'”.

 يخطط الفريق لتوسيع نطاق برنامجه ليشمل منصات التواصل الاجتماعي والمواقع الإلكترونية وقواعد البيانات لجذب مجموعةٍ أوسع من المهاجمين، بما في ذلك برامج البريد العشوائي وبرامج التصيد الاحتيالي، لتحليل التهديدات المستقبلية. ولتحديد زوار الخوادم المعرضة للخطر من البرامج المدعومة بـ LLM، قام الباحثون بدمج تقنيات الحقن الفوري في برنامجهم، حيث صُممت هذه الهجمات لتغيير سلوك برامج الذكاء الاصطناعي من خلال إصدار تعليماتٍ جديدةٍ لها وطرح أسئلةٍ تتطلب ذكاءً بشريًا، وهذا الأمر لن ينجح هذا النهج مع البرامج الروبوتية القياسية.


المصدر: Cyberattacks by AI agents are coming | MIT Technology Review