هل لعب الذكاء الاصطناعي دور في الخلل التقني في تحديث برنامج “كراود سترايك”؟

  • — الثلاثاء يوليو 23, 2024

حدثت فوضى عالمية ليل الخميس ويوم الجمعة 19 يوليو 2024، إثر خطأ تقني في نشر تحديث أمني مهم لبرنامج من شركة الأمن السيبراني “كراود سترايك Crowd Strike ” التي تتعاقد معها شركة مايكروسوفت لحماية أنظمتها.

فقد شل هذا الخلل التقني في برنامج “كراود سترايك فالكون” الذي يحمي أنظمة تشغيل “ويندوز”، التي أصيبت بشاشة الموت الزرقاء (BSOD)، عمل قطاعات مختلفة في مختلف القارات، التي تعتمد فيها الشركات والمؤسسات على أنظمة تشغيل “ويندوز” التابع لشركة “مايكروسوفت”، ولم تتأثر الأنظمة التشغيلية الأخرى.

وقد أثر هذا الخلل التقني على عمليات قطاعات حيوية عدة، وشلّ مفاصلها في عدة دول من العالم، ما أثار البلبلة والذعر ضناً في البداية أنه هجوم سيبراني عالمي؛ فقد وصف بالتأثير الذي لم يسبقه مثيل، إذ تأثر أكثر من 8.5 مليون جهاز كمبيوتر في لحظة واحدة؛ السبب المعلن أنه خطأ في سطر برمجة تحديث أمني من شركة “كراود سترايك” لأنظمة تشغيل “ويندوز” وبالتحديد في برنامج الـ (EDR).

فهل ممكن أن يكون استخدام الذكاء الاصطناعي وأتمتة عملية التحديث الأمني هو السبب في نشر تحديث غير موثوق وغير متحقق من موافقته لنظام “ويندوز”؟

من الممكن بالفعل أن يكون استخدام الذكاء الصناعي قد أدى إلى نشر تحديثات غير متحقق من توافقها مع أنظمة تشغيل ويندوز، وذلك لعدة أسباب، منها :

– ثغرات في أنظمة الذكاء الصناعي قد تحتوي على أخطاء برمجية تسمح للمتسللين باستغلالها لنشر التحديثات الضارة؛ وهو ما يعرف بالـ Prompt engineering، وهنالك مجال اسمه AI pen testing الذي يبحث عن ثغرات في أنظمة الذكاء الاصطناعي. ويمكن اختراق هذه الأنظمة واستخدامها لنشر برامج ضارة أو سرقة بيانات أو تعطيل أنظمة.

– صعوبة التحقق من صحة التحديثات التي ينشئها الذكاء الصناعي، خاصة إذا كانت معقدة أو غير تقليدية؛ وقد لا تتمكن أنظمة الأمان التقليدية من اكتشاف هذه التحديثات الضارة، مما يجعلها أكثر خطورة.

– وهناك أيضا نقص في الشفافية في أنظمة الذكاء الاصطناعي غالبا ما تكون صناديق سوداء، مما يجعل من الصعب فهم كيفية عملها واتخاذ قرارات مستنيرة بشأن موثوقية منتجاتها؛ وقد يؤدي ذلك إلى صعوبة تحديد ما إذا كان التحديث الذي أُنْشِئ بواسطة الذكاء الاصطناعي موثوقا أم، لا.

– أيضا هناك مشكلة التحيز في أنظمة الذكاء الصناعي بحد ذاتها، فقد تكون متحيزة، بما أنها مبنية على معلومات تغذى بواسطة أشخاص، فممكن أن تؤدي إلى إنشاء تخطيطات غير عادلة أو تمييزية.

وعلى كل حال، ففي الوقت الذي يؤدي استخدام الذكاء الاصطناعي إلى تسهل المهام، ويساعد في تحسين عملية تحديث البرامج إن كانت مبنية بشكل موثوق لتحديد البرمجيات الضارة، وتتحقق من صحة التوقيعات الرقمية للتأكد من صحة التحديثات، ومراقبة سلوك النظام بعد أي تحديث بحثا عن أي نشاط ضار، فأيضاً من الضروري -بوجهٍ عام-، أن يكون استخدام الذكاء الاصطناعي على نحو مسؤول، والأخذ بعين الاعتبار الأخطار الكارثية المحتملة للبرامج المماثلة، وأن الذكاء الاصطناعي ليس بحل جذري، بل هو تسهيل واختصار الوقت لإنتاج معلومات أو معرفة جديدة، لذا الأفضل الابتعاد عنها واللجوء إلى التحقق البشري في الموثوقية والتوافقية.

نخلص إلى أنه مهما كانت أسباب هذا الخطأ التقني في نشر تحديث أمني مهم تبقى العبرة مما حدث، وهل العالم مستعد لمواجهة أخطاء الذكاء الاصطناعي وانهيار التقنية التي قد تشل حركة مؤسساتها الحيوية، والخدمات اللوجستية وتضرب الاقتصاد العالمي؟ وهل على الخدمات المدنية في القطاعات الحيوية والأمنية في العالم أن تبقى تحت سيطرة خوادم شركات رأسمالية محتكرة؟

الإجابة عن هذه الأسئلة نتركها للمستقبل.


[مختصر من لقاء مع راغب غندور خبير الأمن السيبراني في برنامَج “النشرة الرقمية” من “مونت كارلو” الدولية ]