رسالة مفتوحة : أوقفوا -مؤقتاً- تجارب الذكاء الاصطناعي العملاقة ذات الذكاء التنافسي البشري!

  • — الخميس مارس 30, 2023

لقد شهدت الأشهر الأخيرة خوض مختبرات الذكاء الاصطناعي سباقاً خارج نطاق السيطرة لتطوير ونشر “عقول رقمية” أكثر قوة لا يمكن لأحد – ولا حتى منشئيها – فهمها، والتنبؤ أو التحكم بها بشكل موثوق [!!!]

 لقد أصبحت أنظمة الذكاء الاصطناعي المعاصرة قادرة على المنافسة مع البشر human-competitive في المهام العامة ، علينا [أخلاقياً وأدبياً] أن نسأل أنفسنا، هذه الأسئلة:
» هل يجب أن ندع هذه الآلات تغمر قنوات المعلومات بالكذب والدعاية (البروباجندا)؟!! 
» هل يجب أن نجعل جميع الوظائف آليًا، بما في ذلك الوظائف المباشرة؟!! 
» هل يجب أن نطور عقولًا غير بشرية تفوقنا عدداً، وتتفوق علينا في الذكاء، ونتقادم  وتحل في النهاية محلنا؟ !!
» هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟!! 

مثل هذه القرارات يجب عدم تفويضها لقادة تقنيين!!

يجب فقط تطوير أنظمة الذكاء الاصطناعي الضخمة بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون تحت السيطرة، ويجب أن تكون هذه الثقة مبررة جيدًا وأن تزداد مع حجم التأثيرات المحتملة للنظام. 
لقد نص بيان “OpenAI” الأخير بشأن الذكاء العام الاصطناعي على أنه “في مرحلة ما، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية، وللجهود الأكثر تقدمًا للموافقة على الحد من معدل نمو الحوسبة المستخدمة في إنشاء نماذج جديدة.”  ونحن نتفق مع هذه النقطة الآن.

 ولذلك، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تطوير وتدريب أنظمة الذكاء الاصطناعي التوليدي، ويجب أن يكون هذا التوقف فورياً وعلنيًا ويمكن التحقق منه، وأن يشمل جميع الجهات الرئيسية الفاعلة، وإذا لم يحصل هذا التوقف [طوعاً] فيجب على الحكومات التدخل وفرض تجميد فوري لها.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين الاستفادة من هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يمكن تدقيقها بكل دقة والإشراف عليها من قبل خبراء خارجيين مستقلين، كما يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تُلتزم بها آمنة بما لا يدع مجالاً للشك.

ولا يعني هذا التجميد المؤقت التوقف عن تطوير الذكاء الاصطناعي بشكل عام، بل مجرد مطالبة بالتراجع عن السباق الخطير إلى نماذج “الصندوق الأسود” الأكبر حجمًا ذات القدرات الناشئة والتي لا يمكن التنبؤ بها.
يجب إعادة تركيز أبحاث وتطوير الذكاء الاصطناعي على جعل أحدث الأنظمة state-of-the-art systems أكثر دقة وأماناً وقابلية للتفسير وشفافية وقوة ومتسقة وجديرة بالثقة والولاء.

بالتوازي مع ذلك، يجب على مطوري الذكاء الاصطناعي العمل مع واضعي السياسات لتسريع تطوير أنظمة حوكمة قوية للذكاء الاصطناعي تشمل -على الأقل- ما يلي: سلطات تنظيمية جديدة مخصصة لأنظمة الذكاء الاصطناعي وقادرة على الإشراف عليها وتتبعها والمجموعات الكبيرة من القدرات الحسابية؛ وأنظمة المصدر والعلامات المائية للمساعدة watermarking systems في التمييز بين الحقيقي والتركيبي ولتتبع تسربات النماذج، ونظام بيئي قوي للتدقيق وإصدار الشهادات؛ المسؤولية عن الضرر الناجم عن الذكاء الاصطناعي؛ وتمويل عام قوي لأبحاث السلامة التقنية للذكاء الاصطناعي؛ ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الدراماتيكية التي سيحدثها الذكاء الاصطناعي.

يمكن للإنسانية الاستمتاع بمستقبل مزدهر مع الذكاء الاصطناعي بعد النجاح في إنشاء أنظمة ذكاء اصطناعي قوية [منضبطة]، نهندسها لتحقيق المنفعة الواضحة للجميع ، ونمنح المجتمع فرصة للتكيف، نحصد منها الفوائد. 

يمكننا الآن التوقف مؤقتًا عن استخدام التقنيات ذات الآثار الكارثية المحتملة على المجتمع، ودعونا نستمتع بصيف طويل للذكاء الاصطناعي، وليس الاندفاع للسقوط!


رابط الرسالة المفتوحة الأصلية والتي شارك فيها مئات القادة التقنيين والاساتذة والمختصين والناشطين والمهتمين بمستقبل البشرية وغيرهم:  Pause Giant AI Experiments: An Open Letter – Future of Life Institute