الكشف عن نماذج الذكاء الاصطناعي التوليدي التي أصبح من السهولة وصول عامة الناس إليها دون ضوابط، والمخاطر قصيرة المدى والوجودية التي صاحبت استخدامه، جعلت صانعي السياسات وخبراء الذكاء الاصطناعي في جميع أنحاء العالم إلى التفكير في تطوير ضوابط حماية مشتركة للمساعدة في توجيه التطوير المستقبلي لهذه التكنولوجيا ومحاربة الجانب المظلم منها.
تجربة معهد «Vector» الكندي في صياغة مبادئ لإستخدام الذكاء الاصطناعي
قام معهد “فيكتور” [vectorinstitute] وبصفته مركزًا للنظام البيئي للذكاء الاصطناعي في كندا، بتأطير ستة مبادئ للثقة والسلامة في استخدام الذكاء الاصطناعي الآمن للمنظمات الكندية والدولية، وهي تعكس النقاش المستمر والقيم المشتركة وأفضل الممارسات للشركات والحكومات والمجتمعات البحثية ذات الشهرة العالمية؛ فأن مبادئ الثقة والسلامة هذه يمكن أن توفر إرشادات للمنظمات الأخرى التي تطور مدونة السلوك الخاصة بها وسياسات الذكاء الاصطناعي. إنها نقطة انطلاق للمنظمات في بداية رحلتها في مجال الذكاء الاصطناعي، بينما يمكن للمنظمات الأكثر رسوخًا البناء عليها لتناسب احتياجاتها على أفضل وجه.
المبادئ الستة للذكاء الاصطناعي الآمن والموثوق
تعتمد المبادئ الستة على نهج الذكاء الاصطناعي الأخلاقي الذي طورته منظمة التعاون الاقتصادي والتنمية (OECD). إلى جانب مبادئ الثقة والسلامة الواضحة للنشر المسؤول لأنظمة الذكاء الاصطناعي. كنقطة انطلاق، ويعتمد المعهد على تعريف منظمة التعاون الاقتصادي والتنمية (OECD) لنظام الذكاء الاصطناعي. ووفقًا لورقة معدة من مركز “بيركمان كلاين” للإنترنت والمجتمع بجامعة “هارفارد”، فإن بيان منظمة التعاون الاقتصادي والتنمية لمبادئ الذكاء الاصطناعي هو من بين أكثر الأساليب توازناً في صياغة المبادئ الأخلاقية والقائمة على الحقوق للذكاء الاصطناعي.
وإليكم المبادئ الستة للذكاء الاصطناعي التي بنيت على موضوعات دولية جمعت من مختلف القطاعات لتعكس قيم ممارسي الذكاء الاصطناعي في نظام “فيكتور” البيئي، عبر كندا، وحول العالم، وهي كمايلي :
المبدأ الأول: يجب أن يكون الذكاء الاصطناعي مفيد للبشر وكوكب الأرض (البيئة).
ملتزمون بتطوير الذكاء الاصطناعي الذي يدفع النمو الشامل والتنمية المستدامة ورفاهية المجتمع؛ وعليه يجب أن ينظر الى تطوير ونشر أنظمة الذكاء الاصطناعي بشكل مسؤول في الوصول إليها بشكل منصف إلى جانب تأثيرها على القوى العاملة والتعليم والمنافسة في السوق والبيئة ومجالات المجتمع الأخرى؛ يستلزم هذا الالتزام رفضًا صريحًا لتطوير ذكاء اصطناعي ضار مثل أنظمة الأسلحة المستقلة الفتاكة وأساليب التلاعب، بما في ذلك الإكراه.
المبدأ الثاني: يجب تصميم أنظمة الذكاء الاصطناعي لتعكس قيم المشاركة المجتمعية.
ملتزمون ببناء ضمانات مناسبة في أنظمة الذكاء الاصطناعي لضمان دعمها لحقوق الإنسان وسيادة القانون والإنصاف والتنوع والشمول والمساهمة في مجتمع عادل؛ وعليه يجب أن تمتثل أنظمة الذكاء الاصطناعي للقوانين والأنظمة وأن تتماشى مع المتطلبات متعددة الولايات القضائية التي تدعم قابلية التشغيل البيني الدولي لأنظمة الذكاء الاصطناعي.
المبدأ الثالث: يجب أن تعكس أنظمة الذكاء الاصطناعي الخصوصية والمصالح الأمنية للأفراد.
ندرك الأهمية الأساسية للخصوصية والأمن، وملتزمون بضمان أن تعكس أنظمة الذكاء الاصطناعي هذه القيم بشكل مناسب لاستخداماتها المحددة.
المبدأ الرابع: يجب أن تظل أنظمة الذكاء الاصطناعي قوية وآمنة وموثوقة طوال دورات حياتها.
ندرك أن الحفاظ على أنظمة الذكاء الاصطناعي الآمنة والجديرة بالثقة يتطلب التقييم والإدارة المستمرين لمخاطرها، وهذا يعني تنفيذ المسؤولية عبر سلسلة القيمة طوال دورة حياة نظام الذكاء الاصطناعي.
المبدأ الخامس: يجب أن تشمل الرقابة على نظام الذكاء الاصطناعي والكشف المسؤول.
ندرك أن المواطنين والمستهلكين يجب أن يكونوا قادرين على فهم النتائج القائمة على الذكاء الاصطناعي وتحديها، يتطلب هذا الشفافية المسؤولة والكشف عن المعلومات حول أنظمة الذكاء الاصطناعي – ودعم محو الأمية بالذكاء الاصطناعي – لجميع أصحاب المصلحة.
المبدأ السادس : إخضاع جميع المنظمات والهيئات والشركات للمساءلة.
ونسلم بأنه ينبغي أن تخضع المنظمات المؤسسات والشركات للمساءلة طوال دورات حياة نظم الذكاء الاصطناعي التي تنشرها أو تشغلها وفقاً لهذه المبادئ، وبأن التشريعات الحكومية والأطر التنظيمية ضرورية جداً لضبطها.
إن الالتزام القوي بهذه المبادئ عبر النظام البيئي للذكاء الاصطناعي (في كندا) من شأنه أن يوسع القيادة العالمية لتطوير ونشر الذكاء الاصطناعي بشكل مسؤول وآمن وجدير بالثقة.