يتحول الذكاء الاصطناعي إلى نوع من الهراء، وينهار إذا توقف الإنسان عن تغذيته بالبيانات

  • — الثلاثاء سبتمبر 03, 2024

علّق على “Reddit”، أو أجب عن أسئلة الترميز على “Stack Overflow”، أو حرر في “ويكيبيديا”، أو شارك صورة على موجز “Facebook” أو “Instagram” العام والخاص، وبذلك أنت تساعد في تدريب الجيل القادم من “الذكاء الاصطناعي” دون إذنك ومجاناً؟!

بهذا الأمر بالتأكيد أمر مُشين ولا أخلاقي ولا يوافق عليه العقلاء من الناس؛ خاصة الذين أمضوا سنوات في المساهمات عبر الإنترنت حتى أصبحت مليئة على نحو متزايد بالتعليقات التي أُنشئت (سُرقت) بوساطة الذكاء الاصطناعي، وهي أصلا تحاكي أفكار البشر!!!

لقد حاول بعض المستخدمين الاحتجاج حذف مساهماتهم السابقة، أو إعادة كتابتها إلى شيء من الهراء، كما حاولت بعض الجهات الحكومية التدخل – بما في ذلك هيئة تنظيم الخصوصية في البرازيل – لكن لم يكن لها تأثير كبير.

تقول “سارة جيلبرت”، المتطوعة في Reddit، التي تدرس أيضًا المجتمعات عبر الإنترنت في جامعة كورنيل، “يشعر جزء أكبر من الناس بالعجز”، “لا يوجد مكان للذهاب إليه سوى الخروج تمامًا من الإنترنت أو عدم المساهمة بطرق تجلب القيمة إليهم وللآخرين”.

بعض المنصات قد تستجيب للضغط ولكن بتناقض؛ فمثلاً Stack Overflow، المركز الشعبي لنصائح برمجة الكمبيوتر؛ قامت في البداية، بحظر الردود المكتوبة باستخدام ChatGPT بسبب الأخطاء المتكررة، لكنها الآن تتعاون مع مطوري “روبوتات” الدردشة الذكية، وعاقبت بعض مستخدميها الذين حاولوا محو مساهماتهم السابقة احتجاجًا على ذلك، وسرقة أعمالهم، بتعليق حساباتهم؟!

إنها واحدة من كثير من منصات التواصل الاجتماعي التي تكافح الحذر من المستخدمين – والإعتراضات القوية- خلال محاولتهم التكيف مع التغييرات التي جلبها الذكاء الاصطناعي التوليدي.

لقد استخدم مطور البرامج “آندي روترينج” من بلومنجتون-مينيسوتا Stack Overflow يوميًا لمدة 15 عامًا، وقال إنه يخشى أن “تضر الشركة عن غير قصد بأعظم مواردها”؛ مجتمع المساهمين الذين تبرعوا بالوقت لمساعدة المبرمجين الآخرين وتعليمهم، وقال: “يجب أن يكون تحفيز المساهمين على تقديم التعليقات أمرًا بالغ الأهمية”.

وعلق الرئيس التنفيذي لشركة Stack Overflow إن الشركة تحاول تحقيق التوازن بين الطلب المتزايد على المساعدة الفورية في الترميز التي يتم إنشاؤها بوساطة روبوتات الدردشة، والرغبة في إنشاء “قاعدة معرفية” مجتمعية بشرية حيث لا يزال الناس يرغبون في النشر و”الحصول على التقدير” لما قدموه، وقال في مقابلة أخرى: “بعد خمس سنوات، سيكون هناك كل أنواع المحتوى الذي أنشئ بوساطة الآلات على “الويب”، وسيكون هناك عدد قليل جدًا من الأماكن حيث يوجد فكر بشري أصيل وأصلي حقًا، ونحن أحد تلك الأماكن” [!!!]

دراسات الحالة

يصف “شاندراسيكار” الرئيس التنفيذي تحديات Stack Overflow باعتبارها واحدة من “دراسات الحالة” التي تعلمها في كلية هارفارد للأعمال، حول كيفية بقاء الأعمال التجارية – أو عدم بقائها – بعد تغيير تكنولوجي مُعطل لها؛ لأكثر من عقد من الزمان، كان المستخدمون عادةً يهبطون على Stack Overflow بعد كتابة سؤال ترميز في Google ثم العثور على الإجابة ونسخها ولصقها. كانت الإجابات التي من المرجح أن يروها تأتي من متطوعين جمعوا نقاطًا لقياس مصداقيتهم – التي في بعض الحالات يمكن أن تساعدهم في الحصول على وظيفة.

الآن يمكن للمبرمجين ببساطة أن يسألوا روبوت محادثة الذكاء الاصطناعي – بعضها مدرب بالفعل على كل شيء نُشِر على Stack Overflow – ويمكنه فوراً إخراج إجابة.

لقد هدد ظهور ChatGPT في أواخر عام 2022 بإخراج Stack Overflow من العمل، لذلك، شكلت الشركة فريق خاص مكون من 40 شخصًا في الشركة للتسابق في إطلاق روبوت محادثة الذكاء الاصطناعي المتخصص الخاص بهم، الذي يسمى Overflow AI، وبعد ذلك، أبرمت الشركة صفقات مع Google و OpenAI، مما مكن مطوري الذكاء الاصطناعي من الاستفادة من أرشيف الأسئلة والأجوبة في Stack Overflow لتحسين نماذج اللغة الكبيرة للذكاء الاصطناعي الخاصة بهم بشكل أكبر.

وعلقت “ماريا روش”، الأستاذة المساعدة في كلية هارفارد للأعمال، إن هذا النوع من الإستراتيجية منطقي، ولكنه ربما جاء متأخرًا جدًا. وقالت: “أنا مندهشة من أن Stack Overflow لم يكن يعمل على مثل هذا سابقاً”.

وعندما حاول بعض مستخدمي Stack Overflow حذف تعليقاتهم السابقة بعد الإعلان عن شراكة Open AI، ردت الشركة بتعليق حساباتهم، بسبب الشروط التي تجعل جميع المساهمات “مرخصة دائماً، ولا رجعة فيه لـ Stack Overflow”، وقال الرئيس التنفيذي: “لقد تعاملنا معها بسرعة، وقلنا، ” انظر، هذا سلوك غير مقبول “، واصفًا المتظاهرين بأنهم أقلية صغيرة في “المئات القليلة” من مستخدمي المنصة البالغ عددهم 100 مليون مستخدم.

لقد اتخذت هيئة حماية البيانات الوطنية في البرازيل إجراءات لمنع عملاق وسائل التواصل الاجتماعي Meta من تدريب نماذج الذكاء الاصطناعي الخاصة بها على منشورات Facebook و Instagram الخاصة بالبرازيليين، وحددت غرامة يومية قدرها 50000 ريال برازيلي (8820 دولارًا) في حال عدم الامتثال.

وفي بيان لها، وصفت شركة Meta هذه الخطوة بأنها “خطوة إلى الوراء في مجال الابتكار”، وقالت إنها كانت أكثر شفافية من كثير من نظيراتها التي تقوم بتدريب مماثل للذكاء الاصطناعي على المحتوى العام، وأن ممارساتها تتوافق مع القوانين البرازيلية.

كما واجهت Meta مقاومة في أوروبا، حيث علقت مؤخرًا خططها لبدء تغذية المنشورات العامة للأشخاص في أنظمة تدريب الذكاء الاصطناعي – التي كان من المفترض أن تبدأ الأسبوع الماضي، وفي الولايات المتحدة، حيث لا يوجد قانون وطني يحمي الخصوصية عبر الإنترنت، من المرجح أن يحدث مثل هذا التدريب بالفعل.

وعلقت المتطوعة “سارة جيلبرت” على هذا الأمر، وقالت : “الغالبية العظمى من الناس ليس لديهم أي فكرة عن استخدام بياناتهم”.

وقد اتخذت Reddit نهجًا مختلفًا – الشراكة مع مطوري الذكاء الاصطناعي مثل OpenAI وGoogle مع توضيح أنه لا يمكن أخذ المحتوى بكميات كبيرة دون موافقة المنصة من قبل الكيانات التجارية “، دون مراعاة حقوق المستخدم أو الخصوصية”، وقد ساعدت الصفقات في جلب الأموال التي احتاجت إليها Reddit لأول مرة في وول ستريت، حيث دفع المستثمرون قيمة الشركة إلى ما يقرب من 9 مليارات دولار بعد ثوانٍ من بدء التداول في بورصة نيويورك.

ولم تحاول Reddit معاقبة المستخدمين الذين احتجوا – ولا يمكنها أن تفعل ذلك بسهولة- نظرًا للقدر الكبير من الجهد الذي يقوم به المشرفون المتطوعون بشأن ما يحدث في منتدياتهم المتخصصة المعروفة باسم subreddits؛ لكن ما يقلق “جيلبرت” التي تساعد في إدارة subreddit “AskHistorians”، هو التدفق المتزايد للتعليقات التي أنشأها الذكاء الاصطناعي التي يجب على المشرفين أن يقرروا ما إذا كانوا سيسمحون بها أم يحظرونها، وقالت : “يأتي الناس إلى Reddit لأنهم يريدون التحدث إلى أناس حقيقيون، ولا يريدون التحدث إلى “روبوتات ” و “هناك تطبيقات يمكنهم التحدث منها إلى “الروبوتات” إذا أرادوا ذلك، لكن تاريخيًا Reddit تأسست للتواصل مع البشر”.

ومن المفارقات أن المحتوى الذي يجري إنشاءه بوساطة الذكاء الاصطناعي، الذي يهدد Reddit كان مصدره تعليقات ملايين البشر من مستخدمي Reddit، و”هناك خطر حقيقي في أنه قد ينتهي به الأمر في النهاية إلى دفع الناس للخروج من المنصة نهائياً”.

انهيار النموذج

ما هي حدود توسع نماذج اللغة الكبيرة (LLM) استنادًا إلى البيانات التي ينتجها الإنسان؛ وهل إذا نفذت هذه البيانات ستنهار هذه النماذج المُكلّفة؟

توقعت دراسة جديدة أصدرتها مجموعة الأبحاث Epoch AI أن شركات التكنولوجيا ستستنفد إمدادات بيانات التدريب المتاحة للجمهور لنماذج لغة الذكاء الاصطناعي بحلول نهاية العقد تقريبًا – في وقت ما بين عامي 2026 و 2032. وقال مؤلف الدراسة، مقارنًا ذلك بـ “حمى الذهب الحقيقية” التي تستنزف الموارد الطبيعية المحدودة؛ إن مجال الذكاء الاصطناعي قد يواجه تحديات في الحفاظ على وتيرة التقدم الحالية بمجرد استنزاف احتياطيات الكتابة التي يولدها الإنسان.

لكن إلى أي مدى يستحق القلق بشأن عنق الزجاجة في البيانات؟

قال “نيكولاس بابيرنوت”، أستاذ مساعد في هندسة الكمبيوتر بجامعة تورنتو وباحث في معهد Vector للذكاء الاصطناعي غير الربحي الذي لم يشارك في دراسة Epoch: “أعتقد أنه من المهم أن نضع في اعتبارنا أننا لسنا بحاجة بالضرورة إلى تدريب نماذج أكبر وأكبر” و “إن بناء أنظمة ذكاء اصطناعي أكثر مهارة يمكن أن يأتي أيضًا من نماذج تدريب أكثر تخصصًا لمهام محددة.” ومع ذلك، لديه مخاوف بشأن تدريب أنظمة الذكاء الاصطناعي التوليدية على نفس المخرجات التي تنتجها، مما يؤدي إلى تدهور الأداء المعروف باسم “انهيار النموذج”. وحسب “بابيرنوت” فإن التدريب على البيانات التي يولدها الذكاء الاصطناعي “يشبه ما يحدث عندما تنسخ قطعة من الورق ثم تنسخ النسخة من نسخة؛ فتفقد بعض المعلومات”.

ولكن الأمر ليس هذا فحسب، بل وجدت أبحاث Papernot أنه يمكن أيضاً أن يؤدي إلى تشفير الأخطاء والتحيز والظلم المترسخ بالفعل في النظام البيئي للمعلومات.

الخلاصة .. إذا توقف الإنسان عن المشاركة تحول الذكاء الاصطناعي التوليدي إلى نوع من الهراء ثم الإنهيار؟