«كشف الخدعة الكبرى: الوعد الكاذب للذكاء الاصطناعي»

  • — الثلاثاء أغسطس 05, 2025

تبذل شركات التكنولوجيا الكبرى الرائدة جهودًا حثيثة لترويج الذكاء الاصطناعي كبوابة لمستقبل زاخر بالخير للجميع. وحتى هذه اللحظة، نجحت هذه الشركات بشكل مذهل في جذب أموال المستثمرين والدعم الحكومي، مما زاد من ثراء مالكيها الأثرياء أصلًا.

مع ذلك، لا يُغيّر هذا النجاح من حقيقة أن أنظمة الذكاء الاصطناعي الخاصة بها قد استنفدت إمكاناتها إلى حد كبير. والأمر الأكثر إثارة للقلق هو أن التبني غير النقدي والمتزايد بسرعة لهذه الأنظمة من قِبل المدارس والشركات ووسائل الإعلام والجيش يُمثل تهديدًا خطيرًا لرفاهيتنا الجماعية.

علينا أن نقاوم، بل ونقاوم بشدة، هذا الهجوم التكنولوجي الضخم.

الخدعة الكبرى

وفقًا لقادة التكنولوجيا مثل إيلون ماسك، نحن على بُعد سنوات فقط من بناء أجهزة كمبيوتر واعية قادرة على التفكير والشعور والتصرف كالبشر. على سبيل المثال، وكما ذكر موقع بيزنس إنسايدر، صرّح إيلون ماسك، الرئيس التنفيذي لشركة تسلا، في مقابلة أُجريت معه في فبراير 2025 خلال القمة العالمية للحكومات في دبي، بأن العوائد الاقتصادية لاستثمارات الذكاء الاصطناعي ستتجلى في الروبوتات الشبيهة بالبشر.

وفي حديثه مع وزير الذكاء الاصطناعي في الإمارات العربية المتحدة، قال ماسك إن الروبوتات الشبيهة بالبشر والذكاء العميق سيُطلقان العنان لإمكانات الاقتصاد العالمي من خلال توفير “منتجات وخدمات لا حصر لها تقريبًا”.

وقال ماسك عن الروبوتات الشبيهة بالبشر: “يمكنك إنتاج أي منتج، وتقديم أي خدمة. لا حدود للاقتصاد في تلك المرحلة. يمكنك صنع أي شيء”.

وتساءل: “هل سيكون للمال معنى؟ لا أعلم؛ قد لا يكون كذلك”، مضيفًا أن الروبوتات قد تُنشئ “وضعًا عالميًا للدخل المرتفع” لأن أي شخص سيكون قادرًا على صنع ما يشاء من السلع والخدمات.

أعاد ماسك مؤخرًا تسمية شركة تيسلا كشركة روبوتات ذكاء اصطناعي، وفي تقرير أرباحها الصادر في يناير، صرّح بأن الشركة ستبدأ قريبًا في بناء آلاف روبوتات أوتيموس، والتي من المرجح أن تحقق لها إيرادات تتجاوز 10 تريليونات دولار.

وتيسلا ليست الشركة الوحيدة التي تنتهج هذه الاستراتيجية؛ وفقًا لمقال في بلومبرغ، “تستعد آبل وميتا للتنافس بشراسة” في بناء “روبوتات بشرية تعمل بالذكاء الاصطناعي”. ويتابع المقال:

إنه ضرب من الخيال العلمي – روبوتات منزلية يمكنها طيّ ملابسك، وجلب كوب من الماء، وتعبئة غسالة الأطباق، أو حتى دفع الأطفال على الأرجوحة في الفناء الخلفي.

لسنوات، بدا هذا المستقبل بعيدًا…لكنه يقترب، بمساعدة بعض أكبر شركات التكنولوجيا في العالم.

إذا أردنا أن نأخذ سوق الأسهم على محمل الجد، فإن الكثير من المستثمرين مؤمنون به حقًا؛ أسهم ما يُسمى بأسهم “السبعة الرائعة” – آبل، مايكروسوفت، ألفابت، الشركة الأم لجوجل، أمازون، إنفيديا، ميتا بلاتفورمز، وتسلا – كانت مسؤولة عن معظم مكاسب السوق على مدار السنوات القليلة الماضية.

في بداية عام 2023، شكلت هذه الأسهم السبعة 20% من مؤشر ستاندرد آند بورز 500. وبعد عام، بلغت 28%. والآن، بلغت 33%.

الواقعية

شكّل إصدار OpenAI لبرنامج ChatGPT في عام 2022 بداية التفاعل العام مع الذكاء الاصطناعي. كان البرنامج مجانيًا وسهل الوصول إليه، ولا يتطلب أي معرفة تقنية لاستخدامه.

ومع أنه لا يزال روبوت الدردشة الأكثر استخدامًا، فقد أطلقت شركات أخرى منتجاتها المنافسة، بما في ذلك تيسلا، أمازون، ميتا، جوجل، ومايكروسوفت. ولكن، على الرغم من قدرة روبوتات الدردشة هذه على أداء مهام متنوعة، إلا أنها لا تتسم بالذكاء.

ورغم الإنفاق الضخم لتعزيز سرعتها وقدرتها الحاسوبية، إلا أنها لا تُمثل خطوةً جوهريةً نحو إنشاء أنظمة ذكاء اصطناعي عام قادرة على التفكير والتعلم وحل المشكلات بمفردها.

تعتمد أنظمة الذكاء الاصطناعي الحالية، مثل ChatGPT، على التعرف على الأنماط واسع النطاق. تُدرّب هذه الأنظمة على بيانات مُستقاة من الإنترنت، وتستخدم خوارزميات مُتطورة لتنظيم المواد عند الحاجة بما يتماشى مع أنماط الاستخدام الشائعة.

عند طرح سؤال أو طلب معلومات، تُحدد روبوتات الدردشة المواد ذات الصلة في قاعدة بياناتها، ثم تُجمّع مجموعة من الكلمات أو الصور، بناءً على الاحتمالات، التي تُلبي الاستفسار على أفضل وجه.

بعبارة أخرى، لا تُفكّر روبوتات الدردشة ولا تُفكّر.

ونظرًا لأن الشركات المُتنافسة تعتمد على مجموعات بيانات مُختلفة وتستخدم خوارزميات مُختلفة، فقد تُقدّم روبوتات الدردشة الخاصة بها استجابات مُختلفة لنفس الطلب.

في الوقت نفسه، تُعاني جميع روبوتات الدردشة من نفس نقاط الضعف. تحتاج أنظمتها إلى بيانات مُكثّفة، ويعني استخلاص البيانات من الإنترنت أنها لا يُمكنها إلا الاعتماد على مواد شديدة التمييز والتحيز. نتيجةً لذلك، قد تُعرّض ردود روبوتات الدردشة للخطر بسبب أسوأ ما في الإنترنت. على سبيل المثال، وُجد أن برامج فحص السير الذاتية المدعومة بالذكاء الاصطناعي تختار السير الذاتية المرتبطة بأسماء مرتبطة بالبيض بشكل غير متناسب. ونظرًا لتعقيدها، لم يتمكن أحد حتى الآن من تحديد كيفية تنظيم روبوت الدردشة لبياناته واختيار كلماته بدقة. وبالتالي، لم يبتكر أحد حتى الآن طريقةً لمنع روبوتات الدردشة من “الهلوسة” بشكل دوري أو رؤية أنماط أو علاقات غير موجودة، مما يدفعها إلى تقديم ردود غير منطقية.

اختبرت هيئة الإذاعة البريطانية (BBC) مؤخرًا قدرة روبوتات الدردشة الرائدة على تلخيص الأخبار، ووجدت أن الإجابات الناتجة تحتوي على أخطاء وتشوهات كبيرة. إليكم ما قالته ديبورا تورنيس، الرئيسة التنفيذية لقسم الأخبار والشؤون الجارية في هيئة الإذاعة البريطانية (BBC):

وجد الفريق “مشاكل جوهرية” في ما يزيد قليلاً عن نصف الإجابات التي أنتجتها برامج المساعدة. فقد أدخلت برامج المساعدة أخطاءً واقعية واضحة في حوالي خُمس الإجابات التي زعمت أنها مستمدة من مواد بي بي سي. وفي الحالات التي أدرجت فيها برامج المساعدة “اقتباسات” من مقالات بي بي سي، كان أكثر من واحد من كل عشرة منها إما مُعدّلاً أو غير موجود في المقالة.

ويبدو أن جزءًا من المشكلة يكمن في أن برامج المساعدة لا تُميّز بين الحقائق والآراء في التغطية الإخبارية؛ ولا تُفرّق بين المواد الحالية والأرشيفية؛ وتميل إلى إضافة آراء إلى إجاباتها. قد تكون النتائج التي تُقدّمها مزيجًا مُربكًا من كل هذا – عالمٌ بعيدٌ كل البعد عن الحقائق المُوثّقة والوضوح الذي نعلم أن المُستهلكين يتوقون إليه ويستحقونه.

هذا بالتأكيد ليس سجلًا يُوحي بالثقة. من جانبها، أوصت بي بي سي بـ”التراجع” عن مُلخصات الأخبار المُقدّمة بواسطة الذكاء الاصطناعي.

لا أمل في نهاية النفق

إدراكًا منها لهذه العيوب، تُجادل شركات التكنولوجيا بإمكانية التغلب عليها بزيادة حجم بيانات التدريب، بالإضافة إلى عدد المعلمات التي تستخدمها روبوتات الدردشة لمعالجة المعلومات. ولهذا السبب، تُسارع هذه الشركات إلى بناء أنظمة جديدة بشرائح باهظة الثمن، مدعومة بمراكز بيانات أكبر حجمًا. ومع ذلك، تُشير الدراسات الحديثة إلى أن هذه الاستراتيجية ليست رابحة.

كما يوضح ليكسين تشو، المؤلف المشارك في دراسة نُشرت في مجلة نيتشر، “قد تبدو أحدث نماذج اللغة الكبيرة (LLMs) مثيرة للإعجاب، وقد تكون قادرة على حل بعض المهام المعقدة للغاية، لكنها غير موثوقة في جوانب مُختلفة”؛ علاوة على ذلك، “لا يبدو أن هذا التوجه يُظهر تحسينات واضحة، بل على العكس”.

ويُشير تشو إلى أن أحد أسباب هذه النتيجة هو أن التحديثات الأخيرة تميل إلى تقليل احتمالية اعتراف الأنظمة الجديدة بعدم اليقين أو الجهل بموضوع مُعين. في الواقع، يبدو أن التغييرات التي أُجريت كانت مدفوعة “بالرغبة في جعل نماذج اللغة تُحاول قول شيء ذي معنى ظاهريًا”، حتى عندما تكون النماذج في منطقة غير مؤكدة.

الخطر الناتج واضح!

في الواقع، ووفقًا للوسي تشيك، أستاذة علم النفس التجريبي بجامعة كامبريدج، “يضع الأفراد ثقة متزايدة في أنظمة تُنتج في الغالب معلومات صحيحة، لكنها تخلط فقط معلومات معقولة – وإن كانت خاطئة – كافية لإحداث مشاكل حقيقية. ويُصبح هذا الأمر إشكاليًا بشكل خاص مع تزايد اعتماد الناس على هذه الأنظمة للإجابة على أسئلة معقدة لا يمكنهم تحديد إجابة خاطئة لها”. إن استخدام هذه الأنظمة لتقديم استشارات الصحة النفسية أو المشورة الطبية، أو تعليم طلابنا، أو التحكم في أنظمة الأسلحة، يُمثل كارثة وشيكة.

بعض وجهات النظر

يؤكد قادة التكنولوجيا بثقة أن الذكاء الاصطناعي سيؤدي إلى تغييرات ثورية في اقتصادنا، مما يعزز الإنتاجية ويرفع مستوى معيشة الأغلبية. وإذا أردنا جني الثمار المتوقعة، فعلينا أن نتجنب هذه التحديات. ولكن ما الذي يُمكننا توقعه حقًا من الاستثمارات الضخمة المتعلقة بالذكاء الاصطناعي والمتوقعة للسنوات القادمة؟

إحدى طرق ترسيخ توقعاتنا هي النظر في العواقب الاقتصادية للطفرة التكنولوجية في أواخر التسعينيات، والتي شملت تزايد شعبية واستخدام أجهزة الكمبيوتر والإنترنت والبريد الإلكتروني على نطاق واسع.

قيل آنذاك إن هذه الفترة المحورية تُشير إلى بداية عصر المعلومات ومستقبل من التوسع الاقتصادي اللامتناهي. أما بالنسبة للعائد الاقتصادي، فإن البيانات المتعلقة باتجاهات إنتاجية العمل في الولايات المتحدة بعد اعتماد النظام غير مشجعة. وكما أفاد صندوق النقد الدولي،

تباطأت مكاسب إنتاجية العمل من نطاق 3-3.5% سنويًا في ستينيات وسبعينيات القرن الماضي إلى حوالي 2% في ثمانينيات القرن الماضي. في أواخر التسعينيات وأوائل القرن الحادي والعشرين، شهد الاقتصاد الأمريكي طفرة إنتاجية كبيرة، وإن كانت مؤقتة، حيث انتعش نمو الإنتاجية إلى 3%.

منذ عام 2003 تقريبًا، كانت مكاسب الإنتاجية باهتة، حيث تباطأت إنتاجية العمل إلى معدل نمو متوسط أقل من 1.5% في العقد الذي أعقب الركود الكبير.

نعم، لقد غيّرت هذه التقنيات، والعديد من الشركات والمنتجات التي أنتجتها، طريقة عملنا ومعيشتنا، إلا أن العواقب الاقتصادية كانت بعيدة كل البعد عن “الثورية”، إذا كنا نعني بذلك تحسينًا كبيرًا في حياة معظم الناس. فقد اتبعت أرباح العمال والنمو الاقتصادي إنتاجية العمل في مسار هبوطي مماثل. ونظرًا لمحدودية أنظمة الذكاء الاصطناعي، من الصعب تصور أن استخدامها سيثبت فعالية أكبر في تحقيق مكاسب إنتاجية قوية وأرباح أعلى للعمال.

بالطبع، ليس هذا هو الهدف الرئيسي من هذا الجهد. لقد حققت شركات التكنولوجيا الكثير من المال على مر السنين، ومن المتوقع أن تحقق المزيد إذا نجحت في اعتماد أنظمة الذكاء الاصطناعي المختلفة الخاصة بها على نطاق واسع.

المقاومة

مقابل وعدها بمستقبل “منتجات وخدمات شبه لا نهائية”، تطالب شركات التكنولوجيا بمساعدتنا في تمويل – من خلال الإعفاءات الضريبية، وتغييرات تقسيم المناطق، ودعم الاستثمار – التوسع الهائل لمراكز البيانات المستهلكة للطاقة والمياه، والتي تحتاجها لتطوير وتشغيل أنظمة الذكاء الاصطناعي الخاصة بها. لا نملك رابحًا في هذا – في الواقع، أفادت بلومبرج نيوز أن أبحاث مايكروسوفت الخاصة حول استخدام الذكاء الاصطناعي:

تُظهر اتجاهًا مُقلقًا: كلما زادت ثقتنا بالذكاء الاصطناعي، قلّ تفكيرنا بأنفسنا…

وجد الباحثون نمطًا مُلفتًا: كلما زادت ثقة المشاركين بالذكاء الاصطناعي في مهام مُعينة، قلّ ممارستهم لتلك المهارات بأنفسهم، مثل الكتابة والتحليل والتقييمات النقدية.

نتيجةً لذلك، أبلغوا عن تراجع في مهاراتهم في تلك المجالات. قال العديد من المُستجيبين إنهم بدأوا يُشككون في قدرتهم على أداء مهام مثل التحقق من قواعد اللغة في النصوص أو كتابة الرسائل القانونية، مما دفعهم تلقائيًا إلى قبول أي شيء يُقدمه لهم الذكاء الاصطناعي المُولّد.

ومن سيُلام عندما تتدهور جودة العمل أو تُسبب الهلوسات أخطاءً جسيمة؟ من المؤكد أنها لن تكون أنظمة الذكاء الاصطناعي التي تُكلّف مليارات الدولارات.

ما العمل إذًا؟

مع المخاطرة بذكر ما هو بديهي: علينا أن نتحدّى الادعاءات المُبالغ فيها لشركات التكنولوجيا الرائدة، وأن نطالب وسائل الإعلام بالتوقف عن اعتبار بياناتها الصحفية أخبارًا مُجرّد أخبار.

علينا أن نقاوم بناء مراكز بيانات أكبر حجمًا وأنظمة الطاقة اللازمة لتشغيلها.

علينا أن نناضل لتقييد استخدام أنظمة الذكاء الاصطناعي في مؤسساتنا الاجتماعية، وخاصةً للحماية من العواقب المدمرة للخوارزميات التمييزية.

علينا أن ننظّم أنفسنا في أماكن العمل لضمان أن يكون للعاملين صوت في تصميم واستخدام أي نظام ذكاء اصطناعي مُقترح.

ويجب علينا دائمًا ضمان امتلاك البشر القدرة على مراجعة قرارات الذكاء الاصطناعي، وتجاوزها عند الضرورة وليس العكس.

Reports from the Economic Front | a blog by Marty Hart-Landsberg

من مدونة مارتي هارت-لاندسبيرج