الآلة والأخلاق؛ ماذا لو وَقَعَت في الأيدي الخطأ؟

  • — الخميس مايو 25, 2023

وفرت التقنيات الرَقمية المُترابطة فُرَصَاً كبيرة لِقطاع الاقتصاد والمُجتمع، لكنها تُثير مشكلات أخلاقية في نفس الوقت، كما هو الحال مع تكنولوجيا التَعَرُّف على الوجوه مثلاً، وتواجه الدول الرائدة في مجال الذكاء الاصطناعي مثل هذه التحديات؛ كفقدان الوظائف بِسَبَب الأتمتة (أو التشغيل الآلي)، وحماية البيانات، والتَعَرُّف على الوجوه، ومقاطع الفيديو المُزيفة (باستخدام تقنية “ديب فيك DeepFake”)، وإساءة استخدام تقنيات الذكاء الاصطناعي والتقنيات الروبوتية؛ ولا شك بأن الرقمنة أتَت بعددٍ غير مَسبوق تاريخياً من التحديات الأخلاقية الجديدة.

ولعل أحدث مثال على ذلك هو برنامج الدردشة “تشات جي بي تي ChatGPT” ، الذي يعتمد على الذكاء الاصطناعي ويقرع أجراس الإنذار في قطاعات شتى، فعلى سبيل المثال، يمكنه القيام بعملية الترميز أو إصلاح الأخطاء في البرامج المعلوماتية.

مسألة الأخلاق مهمة جداً مع برنامج الدردشة الآلي ؛ لأنه يُمكن بمساعدة البرنامج كتابة نصوص تسويقية وأعمال ضخمة وحتى تأليف كتب كاملة بشكل ذاتي؛ لذلك، فإن سوء الاستخدام [والغش] مُرتقب، وهو مثار انزعاج في صفوف المدرسين ورجال التعليم.

لكن ماذا لو وَقَعَ الذكاءُ الاصطناعي في الأيدي الخطأ؟

إنه شيءٌ قد لا يستطيع المَرءُ تخيله، ولا تزال دول العالم مُنقَسِمة حول ضرورة فَرض قواعد صارمة لتنظيم استخدام ما يُسمّى بـ ‘الروبوتات القاتلة’، وكانت النتائج بهذا الشأن مُخَيبة للآمال إلى حدٍ كبير بعد محادثات شهدها مقرّ الأمم المتحدة بجنيف في ربيع عام 2022.

ورغم عَدَم وجود أسلحة فتّاكة مُستقلّة بالكامل -حتى الآن- إلّا أنَّ النُشطاء يتوقّعون استخدام هذا الجيل من الأسلحة في معارك ميدانية في غضون السنوات القليلة القادمة، نظراً للتقدّم التقني السريع في هذا المجال، والإنفاق المرتفع على الذكاء الاصطناعي وعلى أنواع أخرى من التقنيات فائقة التطور.

ويمكن تعريف الذكاء الاصطناعي بأنه قدرة الآلات والحواسيب الرقميّة على القيام بِمَهام مُعينة تُحاكي تلك التي تقوم بها الكائنات الذكيّة؛ كالقُدرة على التفكير أو التَعَلُم من التجارب السابقة وغيرها من العمليات الأُخرى التي تتطلب مُمارسات ذهنية؛ وتعتمد عملية التَعَلُّم على مُعالجة كميات كبيرة من البيانات التي يتم جَمعَها.

وتقوم العديد من الشركات الناشئة في سويسرا -تُعتَبَر واحدة من الدول الرائدة في مجال تطوير الذكاء الاصطناعي- بتطوير مثل هذه الأنظمة التكيفية الذكية – سواء كانت في شكل روبوتات أو تطبيقات أو مُساعد رقمي شخصي – والتي من شأنها أن تُسَهِل حياتنا بِفَضل البيانات الضخمة، لكنها في ذلك تجد نفسها باستمرار في مواجهة المُعضِلة الأساسية المُتمثلة بالقضايا الأخلاقية.

فأين يتعين على هذه الشركات وَضع خط أحمر مع الحفاظ على هدفها المتمثل في بيع تقنياتها؟

هذه المشكلة تتضح بشكل خاص في التفاعل بين البَحث والتطبيق الملموس. وعلى سبيل المثال، تشارك الجامعات السويسرية أيضاً في مشاريع يمولها الجيش الأمريكي، من كاميرات المراقبة الجوية إلى طائرات الاستطلاع المُسَيَّرة التي يتم التحكم فيها بشكل مُستقل.

وتريد سويسرا أن تقوم بدور الريادة في صياغة مستقبل المعايير الأخلاقية المتعلقة بالذكاء الاصطناعي، بفضل مكانتها كدولة محايدة وكمركز أبحاث قوي، تتمتع سويسرا بالقدرة على تحدي الأساليب السائدة في الصين والولايات المتحدة وأن تصبح قطبًا ثالثًا لأبحاث الذكاء الاصطناعي، يقول “فيليب فيلهلم”، كرئيس بلدية دافوس: “سويسرا بمثابة مركز للأبحاث لا يتم تنظيمه كشركة خاصة أو شركة عامة مملوكة للدولة” حيث تحاول المدينة الواقعة في جبال الألب أن تصبح مركزًا محايدًا لتطوير تقنيات قائمة على الذكاء الاصطناعي تكون مسؤولة وشاملة وديمقراطية. يقول “فيلهلم”: “ما ينقصنا هو نهج محايد ومستقل وإنساني”.

الشهادة السويسرية للثقة الرقمية (Swiss Digital Trust Label) هي محاولة أخرى بهذا الاتجاه، تهدف إلى تعزيز ثِقة المُستخدمين بالتقنيات الجديدة . والفكرة من وراءِ ذلك هي إتاحة وفرة من المعلومات للمُستخدمين حول الخدمات الرقمية، وخَلْق الشفافية وضمان احترام القيم الأخلاقية.

“في الوقت نفسه، تهدف العلامة التجارية إلى المساعدة في ضمان أن يصبح السلوك الأخلاقي والمسؤول ميزة تنافسية للشركات” أيضاً، كما تقول “نينيان بيفّيغَن” مديرة المبادرة الرقمية السويسرية التي تقف وراء علامة Swiss Digital Trust Labe.

هناك إجماع واسع على الحاجة إلى وَضع القواعد وتعيين الحدود الأخلاقية بوضوح. تَحقيقاً لهذه الغاية، أنشأت الحكومة السويسرية الفريق العامل المُشترك بين الإدارات المعني بالذكاء الاصطناعي. وفي نهاية نوفمبر 2020، اعتمدت الحكومة المبادئ التوجيهية للذكاء الاصطناعي التي طورها الفريق تحت قيادة الإدارة الفدرالية للاقتصاد والتعليم البحث العلمي. وتوفر هذه الإرشادات إطاراً توجيهياً للإدارة الفدرالية.

“من المهم بالنسبة لسويسرا استخدام الإمكانيات التي تنشأ عن الاحتمالات الجديدة للذكاء الاصطناعي”، كما جاء في تقرير الفريق العامل المُشترك بين الإدارات المعنية بالذكاء الاصطناعي. تحقيقاً لهذه الغاية، من المهم ضمان أفضل الشروط الإطارية المُمكنة التي تتيح لسويسرا تطوير مكانتها كواحدة من مواقع الابتكار الرائدة في العالم في مجالات البَحث وتطوير وتطبيق الذكاء الاصطناعي. في الوقت نفسه، من المهم أيضاً مُعالجة المَخاطر المُرتبطة باستخدام الذكاء الاصطناعي واتخاذ الإجراءات في الوقت المناسب”.

ربما تكون أهم حجة لاستخدام الذكاء الاصطناعي هي أنه يمكن أن يبسط حياتنا. بشكل أساسي من خلال أنظمتهم التي تساعدنا على توفير الوقت وتولي المهام الشاقة مثل التي يمكن القيام بها. في أفضل الأحوال ، يمكن للذكاء الاصطناعي أن ينقذ أرواح البشر ، على سبيل المثال بالاشتراك مع طائرة إنقاذ بدون طيار يمكنها العمل في أضيق الأماكن.

في أغسطس 2021، قررت الحكومة الفدرالية إنشاء “شبكة كفاءات في مجال الذكاء الاصطناعي، وأوضحت أنه سيتم البدء في إقامتها على الفور، على أن تكون جاهزة للبدء في العمل في ربيع عام 2022. ومن المقرر أن تكون الشبكة بمثابة نقطة اتصال لكل ما يتعلق بالتشبيك الداخلي والخارجي للإدارة الفدرالية بالإضافة إلى المسائل ذات الطابع العام في مجال الذكاء الاصطناعي.

مفاهيم أخلاقية مُختلفة

تدعو العديد من الأطراف إلى اعتماد معيار مُلزِم عالمياً. وعلى سبيل المثال، يعالج البرلمان الأوروبي بشكل مُكَثَف مسألة الفُرصَ والمخاطر الناجِمة عن الذكاء الاصطناعي. وفي عام 2018، قدمت مجموعة خبراء أنشأتها المفوضية الأوروبية مسودة لمبادئ توجيهية أخلاقية بإمكانها أن تميّز الذكاء الاصطناعي الجدير بالثقة. ولكن لا توجد استراتيجية عالمية مَتفق عليها لتحديد المبادئ المشتركة حتى الآن.

بشكل عام، توجد هناك بالفعل العديد من البيانات والمبادئ التوجيهية. لكن تحليلاً منهجياً لـ 84 وثيقة ذات صلة أجراه مختبر الأخلاق والسياسة الصحية في المعهد التقني الفدرالي العالي بزيورخ، أظهر خلوها من أي مبدأ أخلاقي مُشترك.

نظراً للاختلافات الكبيرة بين القِيَم الأخلاقية الأساسية التي تَنطَبق في الدول المُختلفة، فمن غير المؤكد تماماً ما إذا كان بالإمكان تحقيق تنظيم موَحَد للذكاء الاصطناعي في السياق الدولي. على أية حال، جاء ذِكر أكثر من خمس قيم أساسية في أكثر من نصف البيانات هي الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.

يبدو أن هذه المناقشة محتدمة أيضًا بين عمالقة التكنولوجيا مثل جوجل. فقد أقدمت المجموعة في عام 2021 على فصل اثنين من خبراء الأخلاقيات لديها بعد خلاف، وهو قرار يدعو إلى التساؤل عما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن الأولويات القصوى للشركات التكنولوجية الكبرى أم لا؟!!

وفي المعهد التقني الفدرالي العالي في زيورخ، يريد مركزٌ جديدٌ للذكاء الاصطناعي التركيز على القيم الأخلاقية الأوروبية، وسيعمل هذا المركز على تجميع كافة بحوث المعهد العالي في مجال بالذكاء الاصطناعي. وكما قال “ألكسندر إيليتش”، المدير الإداري للمركز في مقابلة مع swissinfo.ch، يجب أن يكون الانسان في صميم اهتمام هذه البحوث: “الشخص الذي يُصمّم شيئاً جديداً يتحمل مسؤولية مُعيّنة أيضاً. لذا من المُهم بالنسبة لنا أن نساعد في تشكيل حوار بهذا الخصوص وأن نُدمج قيمنا الأوروبية في تطوير تطبيقات الذكاء الاصطناعي”.

ربما تكون الحجة الرئيسية لصالح استخدام الذكاء الاصطناعي هي قدرته على تبسيط حياتنا، ويتم هذا بشكل رئيسي من خلال أنظمته التي تساعدنا على توفير الوقت وتولي إنجاز مهام شاقة مثل “تشات جي بي تي” ChatGPT الذي يقوم بها. وفي أفضل السيناريوهات، يمكن أن ينقذ الذكاء الاصطناعي الأرواح؛ على سبيل المثال عند الاستعانة بطائرة إنقاذ بدون طيار بإمكانها الدخول إلى منطق ضيقة جداً يصعب على طائرات الانقاذ العادية الوصول إليها.

نتيجة ذلك، يقترح الباحث السويسري “زافييه أوبيرسون” فَرض ضرائب على الروبوتات في حال تأديتها لوظيفة يقوم بها الانسان، وبرأيه، ينبغي استثمار الإيرادات المُتأتية من هذه الضريبة في تمويل نظام الضمان الاجتماعي وتدريب العاطلين عن العمل.

لهذا السبب، من المُتَوَقَّع أن يؤدي استخدام الذكاء الاصطناعي في مكان العمل إلى تقليص عدد الوظائف عاجلاً وليس آجلاً. وكما تُظهِر الأبحاث، يمكن للأنظمة الآلية حالياً إنجاز أكثر من نصف الأعمال التي يقوم به البَشَر بِشَكل أسرَع وأكثر كفاءة.

هذه الشكوك تجد أرضية خصبة داخل المجتمعات، حيث يجد قطّاع الصناعة نفسه وسط ثورة بالفعل. فالبيانات الضخمة، والذكاء الاصطناعي، وإنترنت الأشياء، والطابعات ثلاثية الأبعاد وما إلى ذلك، تُغير المَهام المطلوبة من الموظفين، كما أزاد الاعتماد على الآلة في تنفيذ الأعمال البسيطة.

بالإضافة إلى ذلك، يُقَدِّر مركز الأبحاث التابع للبرلمان الأوروبي أن بإمكان الذكاء الاصطناعي ان يُساهم بنسبة 1,5 – 4% في تقليل انبعاثات غازات الاحتباس الحراري العالمية بحلول عام 2030. وحسب تقدير أولي، تقارب هذه الكمية جميع الانبعاثات الغازية الناتجة عن الحركة الجوية.

“إن التحديات التي تواجه تحويل النُظُم في مجالات إمدادات الطاقة والتغذية والسكن والتنقل كبيرة”، كما جاء في تقرير الفريق العامل المُشترك بين الإدارات المعني بالذكاء الاصطناعي التابع للحكومة السويسرية. وبرأي الفريق، فإن الذكاء الاصطناعي باعتباره تقنية مُتقدمة “سوف يلعب دوراً مهماُ في مواجهة هذه التحديات”.

وكما بات واضحاً خلال هذه السنة، أدى تفشي فيروس كوفيد -19 إلى اعتماد العديد من الخدمات على التقنية الرقمية بين عشية وضحاها تقريباً. وقد أدى ذلك إلى زيادة استخدام تطبيقات الذكاء الاصطناعي في الحياة اليومية، كما في استعمال الروبوتات المتحركة لتطهير الغُرَف في المباني العامة مثل المدارس والمستشفيات.

الخوف من فقدان الوظائف

يتعرض الذكاء الاصطناعي إلى الكثير من الانتقادات، وكان عالم الفيزياء الفلكية الشهير “ستيفن هوكينغ” قد قال ذات مرة: “الذكاء الاصطناعي هو إما أفضل شيء أو أسوأ شيء يمكن أن يحدث للبشرية على الإطلاق”، وعلى سبيل المثال، يخشى منتقدو ما يسمى بـ “الروبوتات القاتلة” من أن الذكاء الاصطناعي والروبوتات قد لا يُعَرِّض الوظائف للخطر فحسب، ولكن الناس أيضاً.

هذه الشكوك تجد أرضية خصبة داخل المجتمعات، حيث يجد قطّاع الصناعة نفسه وسط ثورة بالفعل. فالبيانات الضخمة، والذكاء الاصطناعي، وإنترنت الأشياء، والطابعات ثلاثية الأبعاد وما إلى ذلك، تُغير المَهام المطلوبة من الموظفين، كما أزاد الاعتماد على الآلة في تنفيذ الأعمال البسيطة.

على الجانب الآخر، تزداد الشكوك باستمرار بشأن تطبيقات الذكاء الاصطناعي في صفوف المُستهلكين. ولكن، ووفقاً لبعض الدراسات، فإن جلَّ اهتمام هؤلاء ليس بإمكانية قضاء أو سيطرة الذكاء الاصطناعي على البشرية، ولكن بأمن وسلامة بياناتهم الشخصية، ولهذا السبب يتعرض المُصنعون لضغوط متزايدة لجعل تقنياتهم شفافة للمستخدمين.

الخبير “ألكساندر إيليتش” يقدم مثالاً على ذلك من خلال أهداف مركز الذكاء الاصطناعي الذي يديره: “نحن نريد أن نوضح ما يُمكن أن يُحققه الذكاء الاصطناعي في الواقع من خلال التحاور مع عامة الناس، فهناك العديد من الأمثلة المَلموسة؛ أن ما يحدث في مجالات الطب والصحة الرقمية بالذات وثيق الصلة بالجميع ويسهل فهمه ويُحدث العديد من التغييرات الإيجابية، ونريد أن نُبين أيضاً أن الذكاء الاصطناعي يساعد الأشخاص ولا يحل محلهم.


المصدر : www.swissinfo.ch