قمامات رقمية وأخطاء وتضليل وغش وخداع ونتائج مزيّفة عبر “الإنترنت”؛ من برامج الدردشة الآلية “الشات بوت” التي تقدّم نصائح غير قانونية إلى نتائج البحث المشبوهة التي أُنشئت بواسطة الذكاء الاصطناعي، إليكم نظرة إلى الوراء على أكبر إخفاقات الذكاء الاصطناعي كما في مجلة «تكنولوجي ريفيو» الصادرة عن معهد «ماساتشوستس للتكنولوجيا».
فوضى الذكاء الاصطناعي تسلّلت إلى “الإنترنت”
تسلّلت أخطاء الذكاء الاصطناعي إلى كل ركن تقريباً من “الإنترنت”؛ يجعل الذكاء الاصطناعي التوليدي إنشاء كميات هائلة من النصوص والصور ومقاطع الفيديو وأنواع أخرى من المواد أمراً سهلاً؛ ولأن الأمر لا يستغرق سوى بضع ثوانٍ بين إدخال مطالبة لنموذجك المفضل لإخراج النتيجة، فقد أصبحت هذه النماذج طريقة سريعة وسهلة لإنتاج المحتوى على نطاق واسع؛ وكانت هذه الوسائط (رديئة الجودة عموماً) بما هي عليه؛ بـ«فوضى الذكاء الاصطناعي».
إن هذه الطريقة المنخفضة المخاطر لإنشاء فوضى الذكاء الاصطناعي تعني أنه يمكن العثور عليها الآن في كل ركن من أركان الإنترنت تقريباً؛ من النشرات الإخبارية في صندوق الوارد الخاص بك، والكتب المبيعة على «أمازون»، إلى الإعلانات والمقالات عبر الويب، والصور الرديئة على موجزات وسائل التواصل الاجتماعي الخاصة بك. وكلما كانت هذه الصور أكثر إثارة للمشاعر زادت احتمالية مشاركتها؛ مما يؤدي إلى زيادة المشاركة وإيرادات الإعلانات لمنشئيها الأذكياء.
قمامات رقمية يُعيد إنتاجها الذكاء الاصطناعي
فوضى الذكاء الاصطناعي ليست مزعجة فحسب، بل إن صعودها يشكّل مشكلة حقيقية لمستقبل النماذج ذاتها التي ساعدت في إنتاجها، ولأن هذه النماذج مدرّبة على بيانات جُمعت من “الإنترنت”، فإن العدد المتزايد من المواقع الإلكترونية غير المرغوب فيها التي تحتوي على قمامة الذكاء الاصطناعي يعني أن هناك خطراً حقيقياً للغاية، يتمثّل في أن إنتاج النماذج وأداءها سوف يزداد سوءاً بشكل مطرد.
تشوّيه الأحداث الحقيقية
بدأت تأثيرات صور الذكاء الاصطناعي السريالية تتسرّب إلى حياتنا الحقيقية؛ وتصدّرت تجربة ويلي للشوكولاته الخادعة -وهي حدث غامر غير رسمي مستوحى من رواية «تشارلي ومصنع الشوكولاته»- عناوين الأخبار في جميع أنحاء العالم، بعد أن أعطت مواد الترويج التي أُنشئت بواسطة الذكاء الاصطناعي للزوار الانطباع بأنها ستكون أعظم بكثير من المستودع المزخرف بشكل بسيط الذي أنشأه منتجوها؛ وبالمثل، اصطفّ مئات الأشخاص في شوارع “دبلن” لحضور عرض لم يكن موجوداً أصلاً؛ إذ استخدم موقع ويب، مقره باكستان، الذكاء الاصطناعي لإنشاء قائمة بالأحداث في المدينة، التي تمّت مشاركتها على نطاق واسع عبر وسائل التواصل الاجتماعي؛ وكلا الحدثين يوضح كيف يمكن للثقة العامة بالمواد المفبركة التي أُنشئت بواسطة الذكاء الاصطناعي أن تعبث بالأحداث الحقيقية؟!!
إنشاء صور مزيفة لأي وضع أو سيناريو
تحتوي الغالبية العظمى من مولدات الصور الرئيسة للذكاء الاصطناعي على حواجز -قواعد تملي ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله- لمنع المستخدمين من إنشاء محتوى عنيف وصريح وغير قانوني وأنواع أخرى من المحتوى الضار؛ لكن مساعد «غروك» Grok، الذي صنعته شركة الذكاء الاصطناعي التابعة لـ”إيلون ماسك، التي تسمى «xAI»، يتجاهل كل هذه المبادئ تقريباً بما يتماشى مع رفض ماسك ما يسميه «الذكاء الاصطناعي المتيقظ».
بينما نماذج الصور الأخرى ترفض عموماً إنشاء صور للمشاهير، أو المواد المحمية بحقوق الطبع والنشر، أو العنف، أو الإرهاب – إلا إذا جرى خداعها -وهذا ممكن- لتجاهل هذه القواعد- فإن «Grok» سيولّد بسعادة صوراً لأي شهير وهو يطلق بازوكا، أو ميكي ماوس يحمل قنبلة؛ وانتشرت صور مزيفة جنسية صريحة على الإنترنت، وعلى وسائل التواصل الاجتماعي. وقد خدع أفراد مسجلون في «تلغرام» برنامج إنشاء الصور «AI Designer» من «مايكروسوفت» لإنشاء صور فاضحة؛ مما يوضح كيف يمكن التحايل على الحواجز الأمنية حتى عندما تكون موجودة.
وقد ألقى الحادث الضوء على ثغرات هذه الأنظمة وسياسات تعديل المحتوى السيئة للمنصات، بعد تداول المنشورات التي تحتوي على الصور على نطاق واسع وظلّت حية لعدة أيام؛ لكن النتيجة الأكثر إثارة للرعب هي مدى عجزنا عن محاربة المواد الإباحية المزيفة في حين أن أدوات وضع العلامات المائية وتسميم البيانات يمكن أن تساعد، إلا أنها ستحتاج إلى تبنيها على نطاق أوسع وتوعية غالبية الناس لإحداث فرق.
برامج دردشة تجارية مجنونة
مع انتشار الذكاء الاصطناعي على نطاق واسع، تتسابق الشركات لتبني أدوات توليدية لتوفير الوقت والمال والوظائف؛ المشكلة هي أن برامج الدردشة الآلية تخترع أشياء، ولا يمكن الاعتماد عليها لتزويدك دائماً بمعلومات دقيقة؛ اكتشفت الخطوط الجوية الكندية هذا الأمر بالطريقة الصعبة، بعد أن نصح برنامج الدردشة الآلية الخاص بها أحد العملاء باتباع سياسة استرداد الأموال في حالات الحزن التي لم تكن موجودة، وأيّدت محكمة المطالبات الصغيرة الكندية الشكوى القانونية للعميل، رغم تأكيد شركة الطيران أن برنامج الدردشة الآلية كان «كياناً قانونياً منفصلاً مسؤولاً عن أفعاله الخاصة».؛ وفي أمثلة أخرى بارزة لكيفية تسبّب برامج الدردشة الآلية في ضرر أكثر من نفعه، أقسم برنامج شركة التوصيل «DPD» بمرح ووصف نفسه بأنه عديم الفائدة دون أي مطالبة، في حين انتهى الأمر ببرنامج آخر إنشي لتزويد سكان نيويورك بمعلومات دقيقة حول حكومة مدينتهم إلى تقديم إرشادات حول كيفية انتهاك القانون.
أدوات ذكاء اصطناعي فاشلة
إن أهم شيء حاولت صناعة الذكاء الاصطناعي الفاشلة اختراقه في عام 2024 هو اختراق ميدان المساعدين الماديين، إلا أنها فشلت في ذلك؛ فقد حاولت «Humane» الترويج لـ«Ai Pin»، وهو كومبيوتر ياقة يمكن ارتداؤه، ولكنه فشل في تعزيز المبيعات الضعيفة حتى بعد خفض سعره، كما عانى «Rabbit R1» -وهو جهاز مساعد شخصي قائم على «جي بي تي»- مصيراً مماثلاً، بعد سلسلة من المراجعات النقدية والتقارير التي تفيد بأنه بطيء وغبي ومليء بالأخطاء؛ يبدو أن كلا المنتجَيْن يحاول حل مشكلة لم تكن موجودة بالفعل.
ملخصات بحث خاطئة بالذكاء الاصطناعي
هل سبق لك أن أضفت غراء إلى بيتزا، أو أكلت صخرة صغيرة؟
هذه ليست سوى بعض الاقتراحات الغريبة التي قدمتها ميزة «AI Overviews» من «غوغل» لمستخدمي الويب، بعد أن أضافت شركة البحث العملاقة استجابات مولدة إلى أعلى نتائج البحث؛ نظراً إلى أن أنظمة الذكاء الاصطناعي لا يمكنها معرفة الفرق بين قصة إخبارية صحيحة فعلياً ومنشور لنكتة على «Reddit»؛ ملخصات الذكاء الاصطناعي يمكن أن تكون لها أيضاً عواقب وخيمة، حيث أدت ميزة جديدة في «آيفون» تجمع إشعارات التطبيقات معاً وتُنشئ ملخصات لمحتوياتها، أخيراً إلى ظهور عنوان إخباري زائف على قناة «بي بي سي نيوز».، وذكر الملخص كذباً أن الشخص المتهم بقتل الرئيس التنفيذي لشركة التأمين الصحي برايان تومسون، قد أطلق النار على نفسه؛ تؤدي مثل هذه الأخبار الكاذبة إلى نشر معلومات مضللة وتقويض الثقة في المؤسسات الإخبارية.
هذه أبرز فوضى الذكاء الاصطناعي وإخفاقاته حتى إشعار آخر… وفيما يلي ما قاله «عراب» الذكاء الاصطناعي وندمه!!!
دعا «عراب الذكاء الاصطناعي» البروفسور “جيفري هينتون” الحائز على جائزة «نوبل» في الفيزياء هذا العام إلى فرض تنظيم حكومي أكثر صرامة على شركات الذكاء الاصطناعي.
وحذر من أن «الذكاء الاصطناعي» ، معترفاً بشعوره بالندم على دوره في خلق هذه التكنولوجيا، بحسب صحيفة «تلغراف» البريطانية؛ حيث يتوقع أن الذكاء الاصطناعي سيغير حياة الناس العاديين بشكل كبير، تماماً كما فعلت الثورة الصناعية، كما وثق تشارلز ديكنز، وقال إن ما يحمله المستقبل للحياة مع التكنولوجيا «سيعتمد كثيراً على ما تفعله أنظمتنا السياسية بها».
وأضاف: «ما يقلقني هو أنه رغم أن الذكاء الاصطناعي سيتسبب في زيادات هائلة في الإنتاجية، وهو ما ينبغي أن يكون مفيداً للمجتمع، إلا أنه قد ينتهي به الأمر إلى أن يكون سيئاً للغاية للمجتمع إذا ذهبت كل الفوائد إلى الأغنياء وفقد الكثير من الناس وظائفهم وأصبحوا أكثر فقراً».
وأعرب “هينتون” عن قلقه من أن «اليد الخفية لن تحافظ علينا آمنين؛ لذلك فإن ترك الأمر لدوافع الربح للشركات الكبرى لن يكون كافياً للتأكد من تطويرها بأمان»، مشيراً إلى أن «الشيء الوحيد الذي يمكن أن يجبر هذه الشركات الكبرى على إجراء المزيد من الأبحاث حول السلامة هو التنظيم الحكومي» وعن إيمانه الشديد «بأن الحكومات بحاجة إلى إجبار الشركات الكبرى على إجراء الكثير من الأبحاث حول السلامة».
وختاماً.. هل هناك من يستبين السبيل الصحيح لمساعدة وحماية “الإنسان” من قمامات الذكاء الاصطناعي الرقمية والأخطاء والتضليل والغش والخداع والتصيد والاحتيال والنتائج المزيّفة عبر “الإنترنت” بسبب تهور واندفاع وجشع الإنسان المادي والشركات الرأسمالية المتوحشة؟!