“أنا وزملائي ندفع ثمناً باهظاً لضمان سلامة استخدام تشات جي بي تي”
وصف الموظفون (البشر) الذين يقدمون خدمات للذكاء الاصطناعي التوليدي الصدمات والأضرار النفسية التي عانوا منها من أجل ضمان أمان تكنولوجيا الذكاء الاصطناعي، بأنها باهظة.
يجتاح الذكاء الاصطناعي التوليدي العالم دون اكتمال نضجه وضبطه؛ إنها صناعة سريعة النمو وتقدر بمليارات الدولارات تقودها شركات التكنولوجيا الكبرى والأتباع والمقلدون ؛ ولكي تقلل من مخاطر “روبوتات” الدردشة مثل “تشات جي بي تي ChatGPT” التي بدأت تظهر مشكلاتها على السطح، وجعلها تبدو للناس آمنة الاستخدام ، فقد وظفت هذه الشركات آلاف الأشخاص في المناطق ذات الدخل المنخفض مثل أفريقيا والهند والفلبين، بالإضافة إلى بلدان التي في طليعة هذه الابتكارات مثل الصين والولايات المتحدة، لمساعدة الذكاء -الغباء- الاصطناعي على التعرف على المحتوى المتطرف والعنيف وخطابات الكراهية والعنصرية وإيذاء النفس والمواد الإباحية، والتأكد من عدم عرضها على المستخدمين!!!
لكن المؤلم حقا هو أن عملية إنشاء مرشحات (فلاتر) الأمان أثرت سلبا على أولئك الذين يشاهدون المحتوى السيئ لتصفيته!!!
ثمن الاندفاع وراء الذكاء الاصطناعي غير الناضج وغير المنضبط
جاء في تحقيق لموقع “بي بي سي” عن الموضوع في دولة كينيا ، حيث عمل الشاب البالغ من العمر 27 عاما “موفات” لصالح شركة “ساما” التي تعاقدت معها الشركة التي تقف وراء تقنية تشات جي بي تي.
يقول “موفات” إنه كُلف هو وزملاؤه بفرز المواد المتطرفة لمنع روبوت المحادثة من الوصول إليها وبالتالي عرضها للمستخدمين – حيث كان دور هو التحقق من جميع المواد المصنفة والتأكد من صحتها. ويقول إنه كان عليه أن يقرأ كل يوم مقاطع نصية تشير إلى العنف وخطابات كراهية وإيذاء النفس ومواد إباحية.
إن الصدمة التي تعرض لها غيرته وكلفته زواجه وصداقاته وتركته يعاني من الاكتئاب. وقال زملاء آخرون له إنهم يعانون من اضطراب ما بعد الصدمة. ويقول “موفات” : “لقد كانت بالفعل نصوص مروعة ومؤلمة”. بعد التعامل مع هذه النصوص لمدة أربعة أشهر، تغيرت طريقة تفكيري، و “سبب تغير سلوكي، خسرت عائلتي وزوجتي، وما زلت أشعر بالاكتئاب حتى الآن”.
وانضم “موفات” إلى شركات أخرى لتصنيف البيانات في تقديم العريضة إلى البرلمان الكيني للتحقيق في ظروف التوظيف في شركات التكنولوجيا الكينية التي تستخدمها شركات التكنولوجيا الأجنبية الكبيرة لتحرير المحتوى وغيرها من أعمال الذكاء الاصطناعي. ويقول إنهم لم يتلقوا تدريباً كافياً للتعامل مع المحتوى الكتابي المتطرف الذي تعاملوا معه، ولم يقدموا لهم دعماً استشارياً مهنياً كافياً.
وأنكرت شركة “ساما” -بكل قبح- جميع الشكاوى وقالت إن جميع المتقدمين للوظائف خضعوا لاختبار “الصلابة العقلية” وعرضوا عليهم أمثلة عن المحتوى الذي سيتعاملون معه، فضلاً عن أنه قبل بدء المشروع، طُلب من الموظفين الاطلاع على نموذج الموافقة والتوقيع عليه قبل الانضمام للشركة، ما يعني أن الشركة سلطت الضوء على طبيعة المحتوى الذي قد يتضمن صوراً عنيفة. وقال متحدث الشركة: “بالنسبة للزملاء الناجحين الذين جرى اختيارهم للمشروع، يقدم الدعم النفسي والاجتماعي لهم طوال فترة عملهم؛ حيث توظف أخصائيين صحة محترفين يقدمون خدمات إرشاد نفسي على مدار الساعة طوال أيام الأسبوع في الموقع أو من خلال خطة التأمين الصحي للشركة.”
ذكرت اخصائية علم النفس واضطراب ما بعد الصدمة، الدكتورة “فيرونيكا نجيتشو”، أن التعرض للمحتوى المتطرف عبر الإنترنت يُعرف بالصدمة الثانوية ويمكن أن يكون له تأثير مديد مثل الصدمة الأولية التي يعاني منها متلقي سوء المعاملة. وقالت: “عندما تكون الصدمة الثانوية شديدة الضرر يكون ذلك بسبب الشعور بالعجز حيالها، نظراً لأنك تشاهد المحتوى، فلا توجد خطوة تالية، ولا أحد تقدم تقريراً إليه، ولا يمكنك فعل أي شيء حيال ذلك، ولأنه يتعلق بالإشراف على المحتوى، لا يمكن التنبؤ بما ستراه ولا تعلم كيف قد يتصاعد الأمر”.
وقالت الدكتورة “نجيتشو” إن أعراض الصدمة الثانوية يمكن أن تشمل رؤية كوابيس في المنام وتجنب التواصل مع الناس ونقص التعاطف والقلق أو التوتر لدى مشاهدة أي شيء يعيد إلى الذاكرة ما قرءوه أو شاهدوه، وإنه من الضروري أن تقدم الشركات الدعم اللازم “للتأكد من أنه لا يؤثر على أدائهم ورفاهية هؤلاء”
اتحاد لمراقبي المحتوى
طالب أكثر من 150 مشرفَ محتوى أفريقياً يقدمون خدمات لأدوات الذكاء الاصطناعي التي يستخدمها عدد من شركات التكنولوجيا الكبرى لتأسيس أول اتحاد لمراقبي المحتوى؛ وهذا النوع من الاعتراف والفهم هو ما يريده “موفات” وزملاءه من شركات التكنولوجيا الكبرى والمستخدمين: “يجب أن يعرف الناس الأشخاص الذين يساعدون الذكاء الاصطناعي كي يكون آمناً؛ هم بشر مشرفون على المحتوى، لأن الغالبية لا يعرفون أصلاً ما إذا كانت هذه الخدمة موجودة خلف الكواليس أم لا”.
اسئلة للتفكير الناقد :
ما رأي شركات التكنولوجيا الكبرى العابرة للقارات، في التغول باستخدام الذكاء -الغباء- الاصطناعي غير الناضج الذي لا يفرق بين الاستخدام الخيّر والشرير، والضار النافع، والصالح والطالح ؟!
هل الوظائف المنتظرة (مراقبي محتوى، وإخصائيين صحيين وإرشاد نفسي وعقلي) لعلاج اضطرابات ما بعد الصدمة كالقلق والتوتر والاكتئاب، هي ما يعدوننا به مروجي الذكاء الاصطناعي التوليدي في خدمة البشرية؟!
مالدى الشركات، والهيئات والمنظمات فيما ظهر على السطح من مشكلات ومخاطر على الإنسان بسبب “الاندفاع” غير الناضج وغير المنضبط في استخدام أدوات الذكاء الاصطناعي؟!
من المسؤول عن حماية الناس وبالاخص الأطفال واليافعين والمراهقين من الصدمات والأضرار النفسية والصحية والاجتماعية ؟
الإجابة الصادقة والمخلصة تفتح آفاق الحلول الناجعة!
والله من وراء القصد وهو عليه السبيل