“الذكاء الاصطناعي” سبب تزايد هجمات التصيد الاحتيالي، وهجمات برامج الفدية، وجرائم “الويب”

  • — الثلاثاء مارس 11, 2025

أدى التنافس المحموم واللا مسؤول إلى “الاندفاع” في دمج تطبيقات الذكاء الاصطناعي في المنتجات البرمجية وبالتالي توسيع سطح الهجوم (تسهيله)، وإدخال ثغرات أمنية جديدة وفريدة من نوعها؛ منحت الجهات الخبيثة -حتى الهواة- أدوات وأساليب جديدة أضحت معها المؤسسات (حكومية وغير حكومية) تواجه زيادة مضطرة في أخطار أمنية حديثة!!!

لقد أظهرت إحصائيات الأمن السيبراني للذكاء الاصطناعي زيادة في استخدام الذكاء الاصطناعي في تنفيذ هجمات التصيد الاحتيالي، وهجمات برامج الفدية، والجرائم المتعلقة ببيانات الاعتماد والعملات المشفرة، وغيرها من أشكال الهجمات والافعال الاجرامية على “الويب”؛ حيث يتعرض جهاز الحاسب ​​المتصل بالإنترنت للهجوم 2244 مرة في اليوم، أي ما يعادل مرة واحدة كل 39 ثانية (جامعة ماريلاند).

كما ارتفع عدد إشعارات خرق البيانات الصادرة في عام  2024 إلى (1,350,835,988) أي بنسبة 211 بالمائة عن عام 2023 الذي بلغ (419,337,446) عملية اختراق، كانت غالبيتها ناجمة عن هجمات إلكترونية (مركز موارد سرقة الهوية).

وتمثل الهندسة الاجتماعية -التصيّد الاحتيالي (Phishing) والتذرُّع (Pretexting) واصطياد إغرائي (Baiting)، وغيرها- الشكل الأكثر انتشارًا للهجمات الإلكترونية، حيث أبلغ عنها 56% من المؤسسات، يولد الذكاء الاصطناعي حالياً 40% من رسائل التصيد الاحتيالي التي تستهدف الشركات.

توقعات الخبراء بشأن الأمن السيبراني للذكاء الاصطناعي في عام 2025؟

يتوقع 93% من قادة الأمن أن تواجه مؤسساتهم زيادة هجمات الذكاء الاصطناعي اليومية عام 2025 ؛ تمثل عمليات التصيد الاحتيالي والهجمات القائمة على الويب وسرقة بيانات الاعتماد أكثر اتجاهات الهجوم انتشارًا، ويتوقع خبراء الأمن السيبراني أن يصبح استخدام الذكاء الاصطناعي لمواجهة الهجمات السيبرانية بالذكاء الاصطناعي معركة طويلة الأمد بين “الذكاء الاصطناعي ضد الذكاء الاصطناعي (وزارة الدفاع الأمريكية).

وفيما يلي ملخص لعدد من أهم الإحصائيات حول الأمن السيبراني للذكاء الاصطناعي توضح الاتجاهات الحالية والمسارات المستقبلية المحتملة؛ تكلفة وتكرار الهجمات السيبرانية باستخدام الذكاء الاصطناعي:

التهديدات المدعومة بالذكاء الاصطناعي

يصنف أصحاب المصلحة في مجال الأمن أعلى فئات التهديدات الأمنية السيبرانية المدعومة بالذكاء الاصطناعي على أنها توزيع البرامج الضارة، واستغلال الثغرات الأمنية، والتعرض للبيانات الحساسة من الذكاء الاصطناعي التوليدي، والهندسة الاجتماعية، والتهديدات غير المعروفة عبر الشبكة وتهديدات اليوم صفر، والاستطلاع للتحضير للهجوم .

  • أفاد 74% من متخصصي أمن تكنولوجيا المعلومات أن مؤسساتهم تعاني من تأثير كبير من التهديدات المدعومة بالذكاء الاصطناعي ( Darktrace).
  • اضطر 75% من متخصصي الأمن السيبراني إلى تعديل استراتيجياتهم العام الماضي للتعامل مع الحوادث الناتجة عن الذكاء الاصطناعي ( Deep Instinct
  • يخشى 97% من المتخصصين في مجال الأمن السيبراني أن تواجه مؤسساتهم حوادث أمنية ناجمة عن الذكاء الاصطناعي ( Deep Instinct).
  • 93% من الشركات تتوقع مواجهة هجمات الذكاء الاصطناعي بشكل يومي خلال العام المقبل ( Netacea ).
  • يتوقع 87% من المتخصصين في تكنولوجيا المعلومات أن التهديدات الناتجة عن الذكاء الاصطناعي ستستمر في التأثير على مؤسساتهم لسنوات ( Darktrace).
  • بلغ متوسط ​​التكلفة العالمية لانتهاكات البيانات 4.88 مليون دولار خلال العام الماضي، وهو ما يمثل زيادة بنسبة 10% وأعلى مستوى على الإطلاق ( IBM)
  • تتعرض المؤسسات في أغلب الأحيان إلى هجمات الهندسة الاجتماعية والتصيد الاحتيالي التي أبلغ عنها (56%) من متخصصي تكنولوجيا المعلومات، والهجمات المستندة إلى الويب (50%)، و(49%)  سرقة بيانات الاعتماد (تقرير حالة الذكاء الاصطناعي في مجال الأمن السيبراني|معهد بونيمون)

التصيد الاحتيالي باستخدام الذكاء الاصطناعي

  • 40% من جميع رسائل التصيد الاحتيالي التي تستهدف الشركات يتم إنشاؤها الآن بواسطة الذكاء الاصطناعي مجموعة VIPRE Security Group
  • 60% من المتلقين يقعون ضحية لرسائل البريد الإلكتروني الاحتيالية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، وهو ما يعادل معدلات رسائل البريد الإلكتروني التي لا يتم إنشاؤها بواسطة الذكاء الاصطناعي ( Harvard Business Review ).
  • يوفر مرسلو البريد العشوائي 95% من تكاليف الحملة باستخدام نماذج اللغة الكبيرة (LLMs) لإنشاء رسائل البريد الإلكتروني الاحتيالية ( Harvard Business Review).
  • تبلغ تكلفة هجمات التصيد الاحتيالي في المتوسط ​​4.88 مليون دولار لكل خرق ( IBM).
  • التزييف العميق بالذكاء الاصطناعي
  • شهدت 61% من المنظمات زيادة في هجمات التزييف العميق خلال العام الماضي ( Deep Instinct).
  • من المتوقع أن تزيد هجمات Deepfake بنسبة 50% إلى 60% في عام 2024، مع وقوع 140,000 إلى 150,000 حادثة عالمية ( VPNRanks).
  • 75% من مقاطع الفيديو المزيفة تحاكي شخصية الرئيس التنفيذي أو أحد المسؤولين التنفيذيين الآخرين ( Deep Instinct).
  • من المتوقع أن يضاعف الذكاء الاصطناعي التوليدي الخسائر الناجمة عن عمليات التزييف العميق والهجمات الأخرى بنسبة 32% لتصل إلى 40 مليار دولار سنويًا بحلول عام 2027 ( ديلويت).
  • بلغت خسائر عمليات انتحال الشخصية 12.5 مليار دولار على المستوى الوطني في عام 2023 ( مكتب التحقيقات الفيدرالي).

برامج الفدية AI

  • يعتقد 48% من المتخصصين في مجال الأمن أن الذكاء الاصطناعي سوف يدعم هجمات برامج الفدية المستقبلية ( Netacea).
  • تبلغ تكلفة هجوم برامج الفدية في المتوسط ​​​​للشركات 4،450،000 دولار ( IBM).
  • ارتفعت هجمات برامج الفدية 13 مرة خلال النصف الأول من عام 2023 كنسبة مئوية من إجمالي اكتشافات البرامج الضارة ( Fortinet).
  • جرائم الذكاء الاصطناعي المشفرة
  • ستشكل تقنية Deepfakes ما يصل إلى 70% من جرائم التشفير بحلول عام 2026 ( Bitget).
  • بلغت خسائر الجرائم المشفرة 5.6 مليار دولار على الصعيد الوطني في عام 2023، وهو ما يمثل 50% من إجمالي الخسائر المبلغ عنها من شكاوى الاحتيال المالي ( مكتب التحقيقات الفيدرالي).
  • ارتفعت خسائر العملات المشفرة بنسبة 53% من عام 2022 إلى عام 2023 ( مكتب التحقيقات الفيدرالي).
  • مخاطر الأمن السيبراني الناتجة عن الذكاء الاصطناعي
  • 60% من المتخصصين في تكنولوجيا المعلومات يشعرون أن مؤسساتهم ليست مستعدة لمواجهة التهديدات الناتجة عن الذكاء الاصطناعي ( Darktrace).
  • في حين يقول 79% من مسؤولي أمن تكنولوجيا المعلومات إنهم اتخذوا خطوات للتخفيف من المخاطر الناتجة عن الذكاء الاصطناعي، فإن 54% فقط من الممارسين العمليين يتشاركون ثقتهم ( Darktrace).
  • لا تزال 41% من المؤسسات تعتمد على استراتيجيات اكتشاف نقاط النهاية والاستجابة لها (EDR) لإيقاف هجمات الذكاء الاصطناعي ( Deep Instinct). وقد وجدت الأبحاث السابقة أن أكثر من نصف المؤسسات تقول إن حلول اكتشاف نقاط النهاية والاستجابة لها غير فعالة ضد الأنواع الجديدة من التهديدات (تقرير حالة الذكاء الاصطناعي في مجال الأمن السيبراني|معهد بونيمون)
  • على الرغم من القيود التي يفرضها EDR، تخطط 31% من المنظمات لزيادة الاستثمار في حلول EDR ( Deep Instinct).

أدوات الوقاية من الأمن السيبراني المدعومة بالذكاء الاصطناعي

  • يعتقد 15% فقط من أصحاب المصلحة أن أدوات الأمن السيبراني غير المعتمدة على الذكاء الاصطناعي قادرة على اكتشاف وإيقاف التهديدات الناتجة عن الذكاء الاصطناعي ( Darktrace).
  • 44% من المنظمات قادرة على تحديد الطرق التي يمكن للذكاء الاصطناعي من خلالها تعزيز أنظمة الأمن الخاصة بها بثقة، و62% من المؤسسات قادرة على تحديد طرق يمكن من خلالها للتعلم الآلي تعزيز أنظمة الأمن الخاصة بها، و67% من المتخصصين في مجال الأمن السيبراني يستخدمون الذكاء الاصطناعي في المقام الأول لإنشاء قواعد تعكس أنماط ومؤشرات الأمان المعروفة ؛ وتقول 50% من المنظمات أنها تستخدم الذكاء الاصطناعي للتعويض عن فجوة مهارات الأمن السيبراني ، و 70% من المتخصصين في مجال الأمن السيبراني أن الذكاء الاصطناعي أثبت فعاليته العالية في اكتشاف التهديدات التي لم يتم ملاحظتها من قبل. و 53% من فرق الأمن تقول أن مؤسستهم لا تزال في المراحل الأولى من اعتماد أدوات الأمن السيبراني بالذكاء الاصطناعي؛ كما أفاد 65% من فرق الأمن بوجود تحديات في دمج حلول الأمن السيبراني القائمة على الذكاء الاصطناعي مع الأنظمة القديمة ، وذكر 18% فقط من فرق الأمن أن مؤسساتهم تبنت وطبقت أدوات الأمن السيبراني القائمة على الذكاء الاصطناعي بشكل كامل ، و 63% من المتخصصين في مجال الأمن السيبراني يستخدمون الذكاء الاصطناعي في المقام الأول لإنشاء قواعد تعكس أنماط ومؤشرات الأمان المعروفة؛ وتقول 50% من المنظمات أنها تستخدم الذكاء الاصطناعي للتعويض عن فجوة مهارات الأمن السيبراني (تقرير حالة الذكاء الاصطناعي في مجال الأمن السيبراني|معهد بونيمون)
  • 73% من فرق الأمن السيبراني تريد تحويل التركيز إلى استراتيجية وقائية مدعومة بالذكاء الاصطناعي ( Deep Instinct ).

الخلاصة.. مع تسارع وتيرة هذا الأمر، فان تأثير الهجمات التي تولدها الذكاء الاصطناعي، وتتوقع زيادة انتشار الثغرات الأمنية منخفضة المستوى لتصبح أهدافًا أكثر شيوعًا للمهاجمين الهواة الذين تمكنهم نماذج التعليم العميق “LLM” بكل سهولة من ذلك، فقد بدأت بعض المؤسسات تتجه -بسبب الارتهان- إلى مسوقي أدوات تعمل بالذكاء الاصطناعي لمحاربة الذكاء الاصطناعي بالذكاء الاصطناعي، وهنا قد يقع فأس المشكلة في رأسها، ويصبح الدواء هو الداء؟!

ويبدو ان من السلامة عدم استخدام الذكاء الاصطناعي المدمج في البرامج والتطبيقات عن طريق إلغاء تفعيله او حذفه إن كان ذلك ممكنا.