أعلنت شركة “ديلويت Deloitte”، إحدى كبرى شركات الخدمات المهنية والاستشارات في العالم، وكبيرة منظري ومروجي “ضرورة استخدام الذكاء الاصطناعي”، أنها ستُعيد مبلغاً تقاضته من الحكومة الأسترالية مقابل إعداد تقرير بلغت قيمته 440 ألف دولار أسترالي، بعد اعترافها باستخدام الذكاء الاصطناعي التوليدي في إعداد التقرير واحتوائه على عدة أخطاء ومراجع وهمية.
كانت وزارة التوظيف والعلاقات في مكان العمل (DEWR) قد كلفت “ديلويت” بإجراء مراجعة لإطار الامتثال المستهدف ونظامه التقني المستخدم في تطبيق العقوبات على العاطلين عن العمل في حال عدم التزامهم بالمتطلبات، وقد خلص التقرير إلى وجود مشكلات هيكلية واسعة، منها ضعف التتبع القانوني بين القواعد والتشريعات، ووجود عيوب في النظام الذي وصفه بأنه “قائم على افتراضات عقابية بعدم امتثال المشاركين”.
لكن بعد نشر التقرير ، كشفت صحيفة “الأستراليان فايننشال ريفيو” قد رصدت في التقرير الأصلي مراجع وهمية، منسوبة إلى أساتذة من جامعة سيدني وجامعة لوند السويدية، والاستشهادات الواردة كانت غير موجودة فعليًا.
وأكدت وزارة التوظيف أن الشركة ستُعيد الدفعة الأخيرة من عقدها مع الحكومة. ويأتي ذلك بعدما اتهم أحد أعضاء مجلس الشيوخ من حزب العمال الشركة بأنها تعاني من “مشكلة في الذكاء البشري” بسبب استخدام الذكاء الاصطناعي و”الهلوسة” لإعداد التقارير.
استخدام الذكاء الاصطناعي و”الهلوسة” في النصوص
أوضح الباحث الأكاديمي الدكتور “كريستوفر ردج” من جامعة سيدني، الذي اكتشف الأخطاء أولًا، أن التقرير احتوى على ما يسمى “هلوسات الذكاء الاصطناعي” — وهي ظاهرة تقوم فيها النماذج اللغوية بملء الفراغات أو اختلاق معلومات ومراجع غير حقيقية.
وقال ردج: “بدلًا من استبدال المرجع الخاطئ بمرجع صحيح، أضافت النسخة الجديدة خمسة أو ستة أو حتى ثمانية مراجع جديدة، ما يشير إلى أن الادعاءات الواردة لم تستند أصلًا إلى مصدر موثوق بعينه.”
وفي النسخة المحدثة، إشارة في الملحق توضح استخدام الذكاء الاصطناعي التوليدي، مشيرة إلى أن جزءًا من التقرير “تضمّن استخدام سلسلة أدوات قائمة على نموذج لغوي ضخم من نوع Azure OpenAI GPT-4o، مرخّص من الوزارة ومُستضاف ضمن بيئة Azure الخاصة بها”.
من جهتها، انتقدت السيناتور العمالية “ديبورا أونيل” شركة “ديلويت” بشدة، قائلة: إن “ديلويت” يبدو أنها تركت الذكاء الاصطناعي يقوم بمعظم العمل”، ويبدو أنها تعاني من مشكلة في الذكاء البشري. الأمر كان ليُضحك لو لم يكن بهذه الخطورة. الاسترداد الجزئي للأموال يبدو وكأنه اعتذار جزئي عن عمل دون المستوى.” ، وأضافت أن الجهات الحكومية “ينبغي أن تتحقق من هوية من يقوم فعلًا بإعداد هذه التقارير، وأن تتأكد من وجود خبرة بشرية حقيقية ومنع استخدام الذكاء الاصطناعي في المهام الأساسية”، ساخرة بالقول: “ربما سيكون من الأفضل للمؤسسات أن تكتفي بالاشتراك في خدمة ChatGPT بدلًا من التعاقد مع شركات استشارية كبرى.”
يُذكر أن “ديلويت” ليست الوحيدة التي واجهت مشكلات من هذا النوع؛ شريكتها الاستراتيجية شركة “أنثروبيك” نفسها لم تسلم من هذا التورط، بعدما تبين أنها استخدمت مرجعاً مزيفاً من ربوتها “كلاود” في نزاع قانوني مع ناشرين.
فهل من مُسْتيقِظ؟
