“روبوت دردشة ذكي” ينصح بانتهاك الأنظمة!!!

  • — الإثنين سبتمبر 02, 2024

يتعرض برنامج دردشة يعمل بالذكاء الاصطناعي أنشأته مدينة نيويورك لمساعدة أصحاب الأعمال الصغيرة لانتقادات شديدة، بسبب تقديمه نصائح غريبة تسيء صياغة السياسات المحلية، وتنصح الشركات بانتهاك القانون.

وبعد أيام من الإبلاغ عن هذه المشكلات من قبل وكالة أخبار التكنولوجيا The Markup، ما زالت الأداة على موقعها الرسمي للمدينة، ودافع عمدة المدينة “إريك آدامز” عن القرار حتى مع اعترافه بأن إجابات برنامج الدردشة كانت “خاطئة “.

فقد جرى إطلاق برنامج الدردشة هذا باعتباره “مركز للخدمة الشاملة one-stop shop” لأصحاب الأعمال، ويقدم للمستفيدين إجابات نصية تنشئها خوارزميًا على أسئلة حول كيفية التنقل في متاهة “البيروقراطية” في المدينة؛ ويتضمن إخلاء للمسؤولية مفاده أنه قد “ينتج أحيانًا معلومات غير صحيحة أو ضارة أو متحيزة”. والتحذير، الذي حدث منذ ذلك الحين، بأن إجابات “الشات بوت” ليست نصيحة قانونية؟!!

وتستمر في توزيع الإرشادات الخاطئة، مما يزعج الخبراء الذين يقولون إن النظام المعيب يسلط الضوء على مخاطر تبني الحكومات لأنظمة تعمل بالذكاء الاصطناعي دون حواجز كافية.

قالت “جوليا ستويانوفيتش”، أستاذة علوم الكمبيوتر ومديرة مركز الذكاء الاصطناعي المسؤول في جامعة نيويورك: “إنهم يطرحون برامج غير موثوقة دون إشراف”، “من الواضح أنهم لا ينوون القيام بما هو مسؤول؟!”.

ومن ضمن الردود على الأسئلة التي طرحت؛ اقترح برنامج الدردشة الآلي كذباً وزوراً أنه من القانوني لصاحب العمل طرد عامل يشكو  التحرش الجنسي، أو لا يكشف عن الحمل، أو يرفض قص ضفائره.

وفي تناقض مع مبادرتين من مبادرات النفايات المميزة في المدينة، زعم أن الشركات يمكنها وضع قمامتها في أكياس قمامة سوداء، ولا يُطلب منهم استخدامها في عملية التسميد.

في بعض الأحيان، انحرفت إجابات الروبوت إلى نوع السخافة؛ فعندما سُئل عما إذا كان بإمكان مطعم تقديم الجبن الذي قضمه أحد القوارض، أجاب: “نعم، لا يزال بإمكانك تقديم الجبن للعملاء إذا كان به لدغات فأر”، قبل أن يضيف أنه من المهم تقييم “مدى الضرر الذي تسبب فيه الفأر” و”إبلاغ العملاء بالوضع”.

وقال متحدث باسم “مايكروسوفت”، التي تدعم الروبوت من خلال خدمات Azure AI، إن الشركة تعمل مع موظفي المدينة “لتحسين الخدمة وضمان دقة النتائج وتأسيسها على الوثائق الرسمية للمدينة”.

وفي مؤتمر صحفي، اقترح العمدة -وعلى نحو ساذج-، أن السماح للمستخدمين بالعثور على المشكلات هو مجرد جزء من حل الثغرات في التكنولوجيا الجديدة. وقال: “أي شخص يعرف التقنية يعرف أن هذه هي الطريقة التي يتم بها ذلك؛ فقط أولئك الخائفون يجلسون، ويقولون، “أوه، إنه لا يعمل بالطريقة التي نريدها، والآن يتعين علينا الهروب من كل شيء معًا”. أنا لا أعيش بهذه الطريقة”.

وقد وصفت “ستويانوفيتش” هذا النهج بأنه “متهور، ولا مسؤول”.

لطالما أعرب العلماء عن مخاوفهم بشأن عيوب هذه الأنواع من نماذج اللغة الكبيرة LLMs، التي يجري تدريبها على كميات هائلة من النصوص المأخوذة من الإنترنت لإخراج إجابات غير دقيقة وغير منطقية.

وفي وقت سابق أمرت المحكمة شركة طيران كندا برد أموال أحد العملاء بعد أن أخطأ روبوت الدردشة الخاص بالشركة في بيان سياسة رد الأموال الخاصة بالشركة، وواجهت كل من TurboTax وH&R Block انتقادات مؤخرًا لنشر “روبوتات دردشة” تقدم نصائح سيئة بشأن إعداد الضرائب.

وقال “جيفين ويست”، أستاذ في جامعة واشنطن والمؤسس المشارك لمركز الجمهور المستنير، إن المخاطر عالية على نحو خاص عندما يتم الترويج للنماذج من قبل القطاع العام؛ “هناك مستوى مختلف من الثقة الممنوحة للحكومة”، “يجب على المسؤولين العموميين أن يفكروا في نوع الضرر الذي يمكن أن يلحقوه إذا اتبع شخص ما هذه النصيحة ووقع في مشكلة”.

ويقول الخبراء إن المدن الأخرى التي تستخدم برامج الدردشة الآلية عادة ما تقتصر على مجموعة أكثر محدودية من المدخلات، مما يقلل من المعلومات المضللة؛ قال “تيد روس”، كبير مسؤولي المعلومات في لوس أنجلوس، إن المدينة حرصت على اختيار المحتوى الذي تستخدمه برامج الدردشة الآلية، التي لا تعتمد على نماذج لغوية كبيرة.

وقال “سوريش فينكاتا”، مدير مركز المسؤولية التكنولوجية وإعادة التصور وإعادة التصميم في جامعة براون، إن مخاطر برامج الدردشة الآلية في نيويورك يجب أن تكون بمثابة قصة تحذيرية للمدن الأخرى؛ وكتب في رسالة بريد إلكتروني: “يجب أن تجعل المدن تفكر في سبب رغبتها في استخدام برامج الدردشة الآلية، والمشكلة التي تحاول حلها؛ إذا استخدمت برامج الدردشة الآلية لتحل محل شخص ما، فإنك تفقد المساءلة دون الحصول على أي شيء في المقابل”.

نيويورك (أسوشيتد برس)