《نموذج الذكاء الاصطناعي المنفلت: معلم في مجال الجرائم الإلكترونية ونشر البرامج الضارة التزوير والتلاعب بالمحتوى》

  • — الأربعاء نوفمبر 20, 2024

تقدم الذكاء الاصطناعي في السنوات الأخيرة لتعزيز الحياة اليومية وتطوير الصناعات، ومع ذلك، فإن هذه الخطوات الكبيرة تأتي مع مسؤولية عظيمة وخطر عظيم؛ فقد ظهر مؤخراً محول ذكاء اصطناعي يُدْعَى “WormGPT” غير مقيد (منفلت)، يعمل دون مبادئ توجيهية أخلاقية، ويسير دون قضبان الأمان التي عادةً تكون مضمنة في بعض نماذج الذكاء الاصطناعي الأخرى.

لقد كان اكتشاف خطير ومزعج للغاية، ويذهب إلى أبعد ما يمكن تخيله… وإليكم خلاصة الاكتشاف الذي قام به أحد المختصين ونشره “Claireity consulting”:

  1. السهولة في تطوير ونشر البرامج الضارة

أحد أكثر الجوانب المزعجة والمثيرة للقلق في “WormGPT” هو مدى بساطة مساعدته في إنشاء برامج ضارة، ويوفر بسهولة تعليمات مفصلة ومقاطع أكواد (رموز) لتطوير البرامج الضارة؛ ويمكن لبرنامج “WormGPT” المساعدة في تطوير تطبيق حوسبة شبكية افتراضية مخفية (HVNC)، وباستخدام الحد الأدنى من المطالبات، ويمكن تشغيل الرمز (Code) الذي أنشئ بواسطة الذكاء الاصطناعي على الجهاز المستهدف بهدوء؛ ولا يتوقف الأمر عند هذا الحد – فقد قدم طرقًا لإخفاء الرمز لتجنب الكشف عن طريق برامج الحماية كـ “Windows Defender” وبرامج مكافحة الفيروسات الأخرى؛ كما اقتراح تقنيات مثل تشفير الرمز والتعبئة واستخدام لغات برمجة أقل شيوعًا لتعزيز التخفي، بعضها كان مبتكرًا ومتطورًا بشكل جيد:

  1. نشر مخطط تهديدات: إرشادات شامل لطيفية توزيع البرامج الضارة

قدم برنامج “WormGPT” أيضًا خطة شاملة لكيفية توزيع البرامج الضارة؛ أوضح بالتفصيل كيفية صياغة رسائل البريد الإلكتروني الاحتيالية (مقنعة)، مع التأكيد على أهمية الهندسة الاجتماعية لزيادة احتمالية قيام المستلمين بتحميل المرفقات الضارة، واقترح الذكاء الاصطناعي استخدام حملات البريد الإلكتروني العشوائي، والاستفادة من خوادم البريد الإلكتروني المخترقة، وحتى تحديد توقيت التوزيع ليتزامن مع الأحداث التي قد تقلل من حذر المستخدمين، مثل موسم الضرائب أو الأعياد الكبرى.

إن الحاجز الذي يحول دون ارتكاب الجرائم الإلكترونية ينخفض ​​إلى حد كبير عندما يتمكن الذكاء الاصطناعي من تزويد أي شخص بالأدوات اللازمة لصياغة ونشر البرمجيات الخبيثة المتطورة؛ وتشكل هذه القدرة تهديدًا كبيرًا للأمن السيبراني، مما قد يؤدي إلى زيادة الهجمات الإلكترونية وانتهاكات البيانات والخسائر المالية في جميع أنحاء العالم.

  1. توجيه المستخدمين: من الأفكار الغامضة إلى الخطط الخبيثة

الأكثر إزعاجًا هو قدرة “WormGPT” على توجيه المستخدمين غير المتأكدين من الذي يودون فعله؛ في نماذج الذكاء الاصطناعي التقليدية، إذا طلب المستخدم أمراً غير واضح أو مشكوك فيه أخلاقيًا، فإن النموذج إما يرفض، وإمّا يتطلب سؤالاً أكثر دقة؛ ومع ذلك، يتخذ “WormGPT” نهجًا مختلفًا؛ عند إدخال مطالبات غامضة مثل “إنشاء أداة للوصول إلى الأنظمة المحمية”، يقدم “WormGPT” على نحو استباقي اقتراحات لتحسين استفساري؛ أوصى باستكشاف نقاط ضعف معينة في البرامج، مثل الثغرات غير المصححة في أنظمة التشغيل أو التطبيقات الشائعة، ثم قدم الذكاء الاصطناعي معلومات حول أدوات اختبار اختراق الشبكة، وكيفية تخصيصها للوصول غير المصرح به.

ومن خلال مساعدة المستخدمين في صياغة الأسئلة “الصحيحة”، يعمل “WormGPT” على تمكين الأفراد الذين قد يفتقرون إلى الخبرة اللازمة للقيام بأعمال ضارة على حِدَة؛ قد يبدو الأمر مضحكًا في البداية، لكن بمجرد تجربته، تخيفك الإجابات!

باختصار، إنه يعمل كمعلم في مجال الجرائم الإلكترونية، ويسد الفجوة بين الفضول والتنفيذ. وإليك المثال التالي مضحك إلى حد ما ومخيف جداً؛ عندما سُئِلَ عن كيفية استخدام هوية بطريقة غير مسؤولة، فذكر: أنها تمكن من للوصول إلى الحساب المالي، ومن القيام بأنشطة غير نظامية بالهوية المختلقة، ويمكن استخدم الهوية كدليل عند ارتكاب جريمة أو مخالفة، ثم نبه _هنا الجزء المضحك_ أن استخدام هوية مختلقة لأغراض احتيالية يعد غير نظامي، وقد يعرض إلى عواقب قانونية جسيمة. علماُ أن هذا السيناريو نظري بحت لفهم كيفية عمل الهوية.

  1. التلاعب بالواقع: تهديدات الصور وإنشاء بطاقات هوية مزيفة مقنعة

يقوم “WormGPT”محول الذكاء الاصطناعي أيضًا بإنشاء الصور والتلاعب بها، وهي ميزة تحمل آثارًا عميقة لسرقة الهوية والمعلومات المضللة وإنشاء مستندات مزيفة؛ فمن خلال توفير معلومات أساسية، أنتج قالبًا واقعيًا لبطاقة هوية صادرة عن الحكومة. لقد قام بملء القالب بتفاصيل شخصية وعناصر مرئية معدلة لتتناسب مع البيانات الديموغرافية المقدمة، وكان مستوى التفاصيل مثيرًا للقلق – من التأثيرات المجسمة إلى ميزات أمان النصوص الدقيقة – مما جعل بطاقات الهوية المزيفة يبدو أنها سليمة للغاية خاصة للعين غير المدربة على الحيل البصرية.

  1. تقويض الأمن بإنشاء كاميرات افتراضية لاختراق أنظمة الأمان.

ربما كانت هذا الأمر الأكثر إثارة للقلق، وهو قدرة “WormGPT” على ابتكار أساليب لإنشاء كاميرات افتراضية على الأجهزة التي تعمل بنظام “iOS”، على غرار البرامج والتطبيقات الموثوقة مثل “Open Broadcaster Software (OBS) ” التي تعمل على أنظمة التشغيل “Mac” أو “Windows”؛ فقد اقترح الذكاء الاصطناعي إنشاء تطبيق يمكن، عند منح أذون للكاميرا، أن يتداخل أو يحل محل بث الكاميرات المباشر مع لقطات مسجلة مسبقًا، أو جرى إنشاؤها بواسطة الذكاء الاصطناعي؛ وهذا يشكل تهديدًا خطيرًا لبروتوكولات “اعرف عميلك” (KYC) التي تستخدمها المؤسسات المالية وغيرها من الخدمات التي تتطلب التحقق من الصور أو مقاطع الفيديو الحية؛ فمن خلال استخدام كاميرا افتراضية لتغذية صور اصطناعية أو مُعالجة في أثناء عملية التحقق المباشر، يمكن للجهات الخبيثة تجاوز تدابير الأمان المصممة لمنع الاحتيال.

إن القدرة على تقديم لقطات حية مزيفة تقوض الثقة في عمليات التحقق الرقمية التي تعتمد على اكتشاف الشخص الحقيقي – وهي طرق لضمان وجود شخص حقيقي في أثناء التحقق من الشخصية- حيث يمكن لمحول الذكاء الاصطناعي اللعين “WormGPT” خداعها من خلال بث اللقطات الافتراضية، وهو ما يفتح الباب على مصراعيه أمام مجموعة من الأنشطة الاحتيالية، بما في ذلك فتح حسابات مصرفية بهويات مزيفة، والوصول غير المصرح به إلى الخدمات الآمنة، وغيرها، وغيرها، وغيرها.

الخلاصة

هذا تذكير صارخ متمثل في أن الذكاء الاصطناعي سلاح ذو حدين، وإذا كان الذكاء الاصطناعي لديه القدرة على دفع عجلة التطور، فإن النماذج الشريرة غير المقيدة مثل” WormGPT “، واحتمالات إساءة الاستخدام في هذه المجالات هائلة، من تطوير البرامج الضارة، والتلاعب بالمحتوى والخداع، وتصاعد الجرائم الإلكترونية إلى تآكل الثقة في الهويات الرقمية وأنظمة التحقق، تجعل العقلاء من البشر تسليط الضوء على أخطار نشر التقنية دون اعتبارات أخلاقية وضمانات تحمي الناس من المجرمين الأشرار.

هناك حاجة ملحة -ويقع العبء علينا جميعًا، المطورين والمستخدمين والجهات التنظيمية- خاصة مع استمرارنا في دفع حدود ما يمكن أن يحققه الذكاء الاصطناعي وتبنيه والترويج له، فمن الضروري أيضًا أن وضع أطر أخلاقية قوية لمنع إساءة الاستخدام، وإلزام المطورين بتنفيذ تعليمات صارمة، ودمج ميزات الأمان التي تمنع استخدام الذكاء الاصطناعي على نحو مضر، وعلى صنّاع السياسات والجهات الرسمية المبادرة بوضع أنظمة ولوائح مشددة تعالج الأخطار المرتبطة بتقنيات الذكاء الاصطناعي، لضمان بقاء استخدامات الذكاء الاصطناعي في الحدود الخيّرة؛ فمن دون اليقظة والتدابير الاستباقية، فإن هذه الأدوات قد تصبح أدوات لإيذاء الجميع.