«فيل الذكاء الاصطناعي في غرفة الطاقة»

  • — الأربعاء يوليو 03, 2024

مع احتلال شركة “إنفيديا NVIDIA” مؤخراً للعرش الأكثر أهمية في الرأسمالية – لبضعة أيام – باعتبارها الشركة الأكثر قيمة في العالم، وهي واحدة من أكبر الشركات إنتاجا لمعالجات الرسومات وبطاقات العرض المرئي ومجموعات الشرائح للكومبيوتر وأنظمة ألعاب الفيديو. نحتاج إلى مناقشة “الفيل الموجود في الغرفة” فيما يتعلق بالذكاء الاصطناعي وقيود الطاقة.

إن الأمر لا يتعلق بالسباق الجنوني لشركة “إنفيديا”؛ ولا يتعلق بإيرادات الذكاء الاصطناعي البائسة لشركات “الهايبرسكيلر Hyperscalers “؛ ولا يتعلق بالحصار الصيني المحتمل في مضيق تايوان. على الرغم من أن كل هذه القضايا السابقة واضحة ويجب معالجتها، فإن التهديد الأكبر الذي يلوح في الأفق في مجال الذكاء الاصطناعي، والذي أقر به “سام ألتمان” و”بيل جيتس” و”مارك زوكربيرج”، هو قيود الطاقة.

دعونا نستكشف هذا الموضوع بعمق، لنكون أكثر وعيًا بالتهديد الأكبر في مجال الذكاء الاصطناعي فحسب، بل نكتسب أيضًا فهمًا ثرياً لكيفية عمل بعض أكبر الشركات في العالم (واللاعبين البارزين في هذا المجال) وبعض الأرقام والحقائق التي ستصبح موضوعًا مركزيًا للمناقشة قريبًا ومحركًا رئيسيًا للاستثمارات المستقبلية.

وإليكم نظرة عامة -معمقة- على اقتصاديات وحدة الذكاء الاصطناعي:

نحن نعلم الآن بأن الذكاء الاصطناعي في العالم يعمل على وحدات معالجة الرسوميات وهو المشغل الحاسم لتشغيل نماذج اللغة الكبيرة (LLMs)، وهو ما يسمح بتشغيل العملية بالتوازي، مما يضمن أداءً رائعًا وزمن انتقال تنافسي خارق؛ لكن وحدات معالجة الرسوميات تستهلك قدرًا كبيرًا من الطاقة.

فإلى أي مدى نحن غير مستعدين لما هو آت؟

مقارنة مقلقة .. يتطلب عقد خادم تخزين الملفات والويب القياسية ما متوسطه 1 كيلو وات من الطاقة يومياً، وتتطلب عقدة وحدة معالجة الرسوميات الحديثة المزودة بـ 8 بطاقات NVIDIA H100 ما يزيد عن 11 كيلو وات، أي بزيادة قدرها 10 كيلو وات؛ وعلى الرغم من أن “إنفيديا” تزعم أن استهلاك العقدة يبلغ 10.2 كيلو وات كحد أقصى، إلا أن هذا الاستهلاك يزداد عندما تأخذ في الاعتبار عوامل عدم الكفاءة.

ومن المخيف أنه على عكس معدات تكنولوجيا المعلومات التقليدية، فإن تكاليف التشغيل تشكل جزءًا ضئيلًا من الصورة الإجمالية بسبب تكاليف رأس المال المجنونة لامتلاك وحدات معالجة الرسوميات، بمتوسط ​​يتجاوز 20 ألف دولار لوحدات معالجة الرسوميات NVIDIA H100s، وهي أحدث ما توصلت إليه التكنولوجيا.

وبطبيعة الحال، تترجم هذه الزيادة العشرية إلى متوسط ​​استهلاك طاقة أعلى بكثير لكل طلب، حيث يستهلك استعلام “جوجل Google” حوالي 0.3 واط في الساعة، وطلب “شات جي بي تي ChatGPT” حوالي 2.9، وفقًا لمعهد أبحاث الطاقة الكهربائية (EPRI).

ومن المثير للقلق، وفقًا للتقديرات، أن البحث المدعوم بالذكاء الاصطناعي من “جوجل”، والذي يسمى AI Overviews، قد يزيد من متوسط ​​الاستهلاك إلى ما يقرب من 9 واط في الساعة، أي 30 ضعفًا من متوسط ​​استهلاك الاستعلام القياسي، كما في الرسم البياني التالي:

باختصار، من المتوقع أن تتلقى مراكز البيانات التقليدية العديد من الطلبات التي تتطلب طاقة أكبر بمقدار 10 إلى 30 مرة من تلك التي صُممت من أجلها في الأصل.

والسؤال هنا: ما هو التأثير الإجمالي لهذا الوضع؟ دعونا نرى مثالاً.

إن أول مجموعة من وحدات معالجة الرسوميات H100 التي تضم 100 ألف وحدة في العالم أصبحت قريبة جدًا، وهي ضمن خطط جميع الشركات العملاقة.

إذا أخذنا تقدير SemiAnalysis لـ 80% من استخدام مجموعة الشبكة الصافية الفعلي وافتراض فعالية استخدام الطاقة (PUE)، وهو مقياس لمقدار طاقة مدخلات مركز البيانات التي يتم تحويلها فعليًا إلى عمليات تكنولوجيا المعلومات، وهو 1.3، نحصل على النتائج التالية :

يبلغ إجمالي الاستهلاك السنوي لعدد (100000) مائة ألف من وحدات معالجة الرسوميات = 1265 جيجاوات ساعة/سنة، أو 1.27 تيرا واط/ساعة، بمتوسط ​​التعريفة الصناعية الأمريكية = 1.265×106 × 0.083 دولار/كيلوواط/ساعة = 105 مليون دولار أمريكي/سنة؛ علماُ بأن استخدام الأسعار الأمريكية غير عادل لأنها من بين أرخص الأسعار.

أما لو أخذنا نفس العدد من مركز البيانات في أوروبا، بمتوسط ​​التعريفة الصناعية 0.184 دولار/كيلوواط/ساعة، سيكلف 232.8 مليون دولار أمريكي، أي أكثر من الضعف.

هذا في كل عام. ولكن ما هو حجم الطلب الذي نتوقعه على مستوى العالم؟

في الواقع، الأرقام المذكورة أعلاه متواضعة، حيث يفترض “جينسن هوانج”، الرئيس التنفيذي لشركة “إنفيديا”، أن مراكز البيانات بسعة 1 جيجا واط، والتي بالفعل في خطط معظم الشركات العملاقة، أي ما يقرب من عشرة أضعاف تلك التي ناقشناها للتو كمثال!!!

بمعنى آخر، سيستهلك مثل هذا المركز ما يقرب من 9 تيرا واط/ساعة، أي ما يقرب من إجمالي استهلاك الطاقة في دولة كينيا (53 مليون شخص)، وسيكلف 727.1 مليون دولار أمريكي سنويًا بأسعار الولايات المتحدة الحالية التي أقل بكثير من المتوسط ​​العالمي.

وهذه الشركات العملاقة مستعدة تمامًا لذلك، حيث إن “مايكروسوفت” لن تحتاج سوى إلى 53 ساعة فقط من التدفق النقدي الحر لجمع هذا المبلغ من المال، وهو ما يشير إلى مدى الثراء الفاحش لهذه الشركات الرأسمالية المتوحشة.

إن تشغيل هذه الوحدة من مراكز البيانات سيكلف “مايكروسوفت” حوالي 0.6% فقط من تدفقها النقدي الحر السنوي (الأموال التي يمكنها إنفاقها حسب رغبتها).

ولكن لماذا نحتاج إلى هذه المراكز الضخمة للبيانات؟ وإلى أي مدى سينمو الطلب عليها؟

وفقًا لوكالة الطاقة الدولية، من المتوقع أن ينمو الطلب على مراكز البيانات في الولايات المتحدة والاتحاد الأوروبي والصين إلى حوالي 710 تيرا وات ساعة سنويًا بحلول عام 2026 (كما في الرسم البياني أدناه)؛ وتشمل هذه الأرقام الذكاء الاصطناعي والعملات المشفرة والويب التقليدي وأحمال العمل المؤسسية مجتمعة.

[للتوضيح، هذا يعادل تقريبًا استهلاك فرنسا وإيطاليا مجتمعتين للطاقة في عام 2022 (720 تيرا وات ساعة)].

إذاً ليس من المستغرب أن يتم توحيد معظم هذه العمليات الحسابية بين عدد قليل من اللاعبين الذين ليس لديهم المال للقيام بذلك فحسب، بل لديهم أيضًا ميزة كبيرة من حيث الكفاءة:

  1. من خالا الحجم والنقد، يمكنهم تقليل الطاقة “فعالية استخدام الطاقة PUE “، لتحقيق كفاءة أكبر؛ حيث يجب بناء معظم مراكز بيانات الذكاء الاصطناعي من الصفر بسبب متطلبات الطاقة العالية لكل رف خادم (حيث توجد وحدات معالجة الرسومات)، والتي لم تستعد لها مراكز البيانات الحالية.
  2. يقومون بتوحيد معظم المواهب الهندسية للذكاء الاصطناعي، والتي تتمتع بخبرة واسعة في تشغيل أحمال العمل الموزعة بشكل كبير التي يتطلبها الذكاء الاصطناعي، مما يؤدي إلى تعظيم الاستخدام

ومع ذلك، فإن تفوق الشركات العملاقة في مجال الحوسبة الضخمة سوف يتسع، حيث تعمل جميعها على تجميع كميات هائلة من الحوسبة، ومن المتوقع أن تستمر في القيام بذلك في المستقبل المنظور، حيث تمثل الشركات الأربع الكبرى ما يصل إلى 80% من الطلب العالمي:

وإذا كانت هذه الأرقام دقيقة، فبحلول عام 2026، سيتم توفير ما يقرب من نصف الطلب العالمي على أحمال عمل الذكاء الاصطناعي (40 جيجاوات) من قبل أربعة لاعبين فقط (20.8 جيجاوات)؛ ومن خلال استثماراتهم في OpenAI أو Anthropic أو Mistral، فإنهم يمتلكون أيضًا النموذج، وإذا استمر هذا الاتجاه، فسوف تكون كلمتا الذكاء الاصطناعي وشركات التكنولوجيا الكبرى في الولايات المتحدة متبادلتين.

ولكن هذا يثير سؤال هام يتعلق بالقيود على الطاقة: هل سيكونون قادرين على القيام بذلك ؟

هناك خطر متزايد من أن تتجاوز السرعة التي ينمو بها الطلب على خدمات الذكاء الاصطناعي التي يمكن بها للدول تسريع توليد الطاقة ونقلها بعيداً عن الضغوط التنظيمية أو قوانين مكافحة الاحتكار.

إن إرسال الطاقة إلى رف وحدة معالجة الرسوميات أسهل قولاً من الفعل، حيث تحتاج إلى مولدات كهرباء وخطوط نقل وأوقات للتسليم والبيروقراطية.

المشكلة هي أن الذكاء الاصطناعي لن ينمو في الطلب فحسب، بل سينمو أيضًا الطلب على العملات المشفرة واستهلاك الطاقة المنزلية بشكل عام؛ في حين خفضت مناطق مثل أوروبا استخدامها للطاقة (ربما بسبب ارتفاع الأسعار)، فإن الأسواق الناشئة تُظهِر نموًا قويًا كما هو موضح في الرسم البياني التالي:

ومن المهم أن ندرك أن الإغراء بزيادة إنتاج الطاقة بكل الطرق الممكنة قد يدفع المناطق إلى التخلف عن الوفاء بوعودها المتعلقة بالانبعاثات الكربونية؛ ونظرًا لأن اقتصادات الأسواق الناشئة لديها مزيج طاقة غير نظيف، فقد يتسبب هذا في تحول الذكاء الاصطناعي إلى أحد أكبر الملوثات في الكرة الأرضية، حيث تعمل اقتصادات مثل الصين أو الهند على زيادة استهلاك الفحم بشكل يائس لتلبية الطلب؛ ففي حين يأتي 61٪ من استهلاك الطاقة في الصين من الفحم، فإن الوقود الأحفوري في الهند يمثل ما يقرب من 80٪ من مزيج الطاقة.

وإذا أخذنا كل شيء في الاعتبار، يبدو أن جميع الطرق تؤدي إلى: الطاقة النووية.

وتقود كل من الصين والهند التهمة فيما يتعلق بالقدرة النووية الجديدة، إلى الحد الذي من المتوقع أن تتفوق فيه آسيا على أمريكا الشمالية في القدرة المركبة بحلول عام 2026. ومع ذلك، فإن نهج الذكاء الاصطناعي سيكون مختلفًا عما قد نتوقعه، لذلك نحتاج إلى التحدث عن القضية الأكبر في هذا الأمر : الشبكة.

إنها شبكة الطاقة التي لا يمكن الوصول إليها، كما أشار “إيلون ماسك” مازحا، “تحتاج المحولات إلى محولات “، حيث يشير المصطلح الأول لمحولات المكونات التي تخفض الجهد الخارج من محطات الطاقة إلى جهد يمكن استيعابه في مراكز البيانات والمنازل، ويشير المصطلح الثاني إلى البنية الأساسية وراء ChatGPT أو Gemini، بنية المحولات.

وتكمن مشكلة “المحولات” في أنه بالإضافة إلى كونها غير جذابة للاستثمار والبناء، فإن المحولات تصنع حسب الطلب في الغالب وتستغرق وقتًا طويلاً للبناء.

ومع ذلك، في حين أن أوقات التسليم لتوليد الكهرباء وبناء مركز البيانات تصل إلى 24 شهرًا كحد أقصى، فإن نشر خطوط النقل قد يستغرق ما يصل إلى عقد من الزمان أو أكثر بسبب النزاعات والبيروقراطية.

وفي الولايات المتحدة على وجه التحديد، يمكن أن تستغرق عمليات الموافقة وحدها ما يصل إلى 4 سنوات أو أكثر حيث تتجاوز خطوط الشبكة المطلوبة لبناء المزيد من طاقة الرياح والطاقة الشمسية من المناطق النائية إلى حيث الطلب ولايات متعددة وشركات محلية تبطئ العملية عمدًا.

وبحلول أغسطس/ 2023، كانت الولايات المتحدة تمتلك 1350 جيجاوات من قدرة الطاقة النظيفة الجاهزة للنشر… ولكنها ما زالت تنتظر الموافقة.

إن هذه الكمية الهائلة من الطاقة قد تخفف من حدة أغلب المشكلات التي نناقشها اليوم، ولكن حلها سوف يستغرق سنوات، وخاصة على مستوى الشبكة؛ والصورة التي نراها اليوم والشبكات المطلوبة أمر مخيف، كما صورها المختبر الوطني للطاقة المتجددة في المقارنة التالية :

فقد كان الهدف من هذه الدراسة معالجة كيفية الوصول إلى 100% من الطاقة المتجددة بحلول عام 2035 وقبل طفرة رأس مال الذكاء الاصطناعي، لذا فمن الآمن أن نقول إن هذه الصورة تقوض المدى الحقيقي للحاجة.

وربما لحسن الحظ، تحاول الحكومة الأمريكية الحالية جعل العملية برمتها أكثر مرونة، حتى أنها تقترح قدرة محتملة على تجاوز الحصار على مستوى الدولة إذا اعتبرت الخط المسدود ذا أهمية وطنية.

وبالتوازي مع ذلك، تحاول وزارة الطاقة الأمريكية تحسين الشبكات الحالية باستخدام أجهزة استشعار وضوابط متقدمة، لكن تأثير هذه التدابير لم يتم توضيحه بشكل صريح.

ولكن إذا كان الوضع يبدو مأساويا في الولايات المتحدة، فإن موقف أوروبا سيكون رهيباً.

إن انخفاض الطلب على الطاقة وارتفاع الأسعار يجعل فكرة بناء خطوط طاقة أو نقل أو مراكز بيانات جديدة أشبه بنكتة مضحكة أكثر من كونها فكرة جادة.

وبالنظر إلى الصورة كاملة، فليس من المستغرب أن يأخذ جميع أباطرة الذكاء الاصطناعي، من أمثال “إيلون ماسك” إلى “أتلانتا” إلى “زوكربيرج إلى “جاسي”، الأمور بأنفسهم؛ فهؤلاء لم يعودا ينتظرون الحلول، بل يتخذون الإجراءات التي تناسبهم.

الخلاصة … الأفرط في مجالات الذكاء الاصطناعي تعني مزيداً من استهلاك الطاقة، وتحول تطبيقات الذكاء الاصطناعي الحالية إلى أحد أكبر الملوثات البيئية في الكرة الأرضية.


[i] AI’s Elephant in the Room: Energy Constraints (beehiiv.com)