أفادت تقارير بأن شركة “OpenAI” كانت تدرك المخاطر الكبيرة الناجمة عن بناء نظام ذكاء اصطناعي عام (AGI)، وقصدت تجاهل ذلك.
يعد AGI نوعا افتراضيا من الذكاء الاصطناعي، يتميز بالقدرة على الفهم والتفكير من خلال مجموعة واسعة من المهام. وتحاكي هذه التكنولوجيا أو تتنبأ بالسلوك البشري، في حين تظهر القدرة على التعلم والتفكير.
وفي مقابلة مع صحيفة “نيويورك تايمز”، قال الباحث “دانييل كوكوتايلو”، الذي ترك فريق الحوكمة في شركة “Open AI” في أبريل، إن احتمال تدمير “الذكاء الاصطناعي المتقدم” للبشرية يبلغ حوالي 70%، لكن الفريق المطور (مقره في سان فرانسيسكو) قد غض البصر عن تلك المخاطر ويمضي قدما في ذلك؛ و قال أيضاً: “إن شركة OpenAI متحمسة حقا لبناء الذكاء الاصطناعي العام، وتسعى لتكون الأولى في هذا المجال”.
وأضاف “كوكوتايلو” أنه قبل عامين، حينما كُلف بالتنبؤ بتقدم التكنولوجيا، توصل إلى استنتاج مفاده أن الصناعة لن تقوم بتطوير الذكاء الاصطناعي العام بحلول عام 2027 فحسب، بل هناك فرصة قوية لأن تؤدي هذه التكنولوجيا إلى إلحاق ضرر كارثي بالبشرية أو حتى تدميرها.
كما أفاد الموظف السابق بأنه أخبر الرئيس التنفيذي لـOpenAI، سام ألتمان، أن الشركة يجب أن “تركز على السلامة” وتنفق المزيد من الوقت والموارد على مواجهة المخاطر التي يشكلها الذكاء الاصطناعي بدلا من الاستمرار في جعله أكثر ذكاء، وزعم أن ألتمان اتفق معه، لكن شيئا لم يتغير منذ ذلك الحين.
ويعد “دانييل كوكوتايلو” جزءا من مجموعة من المطلعين على برنامج OpenAI، ومن الذين أصدروا مؤخرا رسالة مفتوحة تحث مطوري الذكاء الاصطناعي على تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات.