قفز الذكاء الاصطناعي قفزات هائلة في السنوات الأخيرة ، وقد بدأ بالفعل بجلب منافع، ولكن بعيداً عن ضجيج الصورة الوردية التي يروج لها المهوسون بالتقنية ومنظري التكنولوجيا، يجب علينا التنبه للمشكلات التي جلبها معه هذا القادم الجديد، وليذكرنا بأن كل شيء يأتي بثمن، وإن كنا مؤيدين أو متخوفين من هذه التقنية علينا البدء فوراً بالتفكير بحلول واستجابات شاملة إن أردنا التنعم بمزايا ومنافع الذكاء الاصطناعي، ومن ضمن هذه القضايا المسؤولية، والمحاسبة، والحوكمة، والشفافية، والخصوصية، والحريات وغيرها.
في السنوات الأخيرة صاحبت أخبار الفتوحات في مجال هذه التقنية الصاعدة أنباء إخفاقات كبيرة مما أثار العديد من الأسئلة حول المسؤولية والتبعات القانونية والتعويضات في حال تسببت هذه التقنية بأخطاء جسيمة وهذا ليس أمراً مستبعداً.
في 2018، حددت تقنية أمازون للتعرف على الوجوه بشكل خاطئ 28 عضواً من الكونجرس الأميركي على أنهم مجرمون سابقون!.
وفي 2019، تسببت سيارة أوبر ذاتية القيادة في حادث أدى لمقتل امرأة في أريزونا.
كما أظهرت خوارزمية استخدمت على نطاق واسع في المستشفيات الأميركية لتخصيص الرعاية الصحية للمرضى تحيزاً منهجياً حرم الكثير من الوصول للخدمات الصحية.
وأظهرت تقنيات جوجل تحيزاً عنصرياً أثناء التعرف على الصور حيث حددت صور لأشخاص سود على أنهم «غوريلات». ولم تتخلف مايكروسوفت عن مسلسل اخفاقات الكبار، فقام رواد تويتر بتعليم روبوت الدردشة للذكاء الاصطناعي من مايكروسوفت «Tay» العنصرية في أقل من يوم واحد. كما تعرض نظام (COMPAS) في مجال العدالة التنبؤية لانتقادات لإدامته التحيز العنصري المنهجي الموجود أصلاً في نظام العدالة الجنائية الأميركية، ولم يكن نظام (HART) البريطاني بأحسن حال منه.
فمن يتحمل مسؤولية الأضرار الناتجة عن فشل الذكاء الاصطناعي؟
هل هم المطورون أم المشغلون أم المستخدمون أم الحكومة التي أجازت الاستخدام ؟!!
كيف نحدد المسؤولية إن اشتركت أطراف متعددة في تطوير وتطبيق التقنية؟
ما هو شكل هذه المسؤولية وما هو تكيفها القانوني؟
كيف نعرف فشل الذكاء الاصطناعي هل هو أي خطأ بغض النظر أنتجت عنه أم لم تنتج عواقب غير مرغوبة؟
كيف نقيس أثر الفشل؟
وما آلية تقدير التعويضات وكيف يتم تعويض المتضررين؟
كيف تستجيب التشريعات ومنظومات العدالة الحالية لهذه المشاكل؟
وما هي الأطر التشريعية والرقابية الواجب تواجدها لضمان حوكمة هذا المجال؟
وهناك الكثير من الأسئلة المعقدة التي تتطلب دراسة متأنية وتعاونًا بين جميع المعنيين لتوفير استجابات شاملة.
وبشكل عام، تشكل المساءلة حجر زاوية في إدارة الذكاء الاصطناعي، وعلى الرغم من محاولات الإجابة عن بعض هذه الأسئلة عبر نصوص ومواد التشريعات الحالية قد تغطي بعض الحالات، فإنها بالتأكيد لا تغطي كل شيء، ولا يكفي وضع ميثاق أخلاقي فضفاض وغير ملزم، وبات لزاماً على المشرع العمل على تطوير منظومة تشريعية متخصصة تواكب التغييرات التي أحدثها الذكاء الاصطناعي. كما يجب على الجهات التنفيذية تطوير هياكل رقابية وتنظيمية تضمن حوكمة وشفافية هذا القطاع، بالإضافة الى إنشاء منظومات ضامنة لتعويض المتضررين في حال فشل الذكاء الاصطناعي، وعدم الاندفاع بتهور نحو تطوير التقنيات واستخدامها دون التأكد من وجود الضوابط الضرورية لضمان سلامة المعنيين والمجتمع ككل.