اخترع نموذج الذكاء الاصطناعي للرعاية الصحية، “ميد-جيميني Med Gemini ” من جوجل، جزءًا غير موجود من جسم الإنسان في ورقة بحثية منشورة؛ حيث استشهد الذكاء الاصطناعي الطبي بجزء مزيف من الجسم، مما أثار مخاوف جدية، وواجهت جوجل رد فعل عنيف من المجتمع الطبي بسبب ذلك.

فقد وصف الذكاء الاصطناعي “احتشاءًا قديمًا في العقدة القاعدية اليسرى” – وهو أمر مستحيل تشريحيًا، ويرجح أنه ناتج عن الخلط بين العقد القاعدية الحقيقية والشريان القاعدي. والذي أشار للخطأ طبيب الأعصاب، “رايان مور”، مما دفع جوجل إلى تصحيح منشورها بخفيه، ولكن لم تستطع في الورقة الأصلية.
وعزت جوجل هذا الخطأ الكارثي إلى أنه “خطأ مطبعي” بسيط تعلمه “الذكاء الاصطناعي” من بيانات التدريب؟!!
ويقول الخبراء إن هذا الأمر يُسلط الضوء على مخاطر “هلوسات” الذكاء الاصطناعي في مجالات بالغة الأهمية مثل الطب، حيث يمكن أن تُسبب التفاصيل المُختلقة أضرارًا جسيمة إذا تُركت دون معالجة.
ويُحذّر مُختصّو الرعاية الصحية من أن هذه الحادثة تُؤكّد على مُشكلة أوسع: فحتى نماذج الذكاء الاصطناعي المُتقدّمة “الاستدلالية” مثل Med Gemini – وخليفتها Med Gemma – يُمكنها إنتاج معلومات طبية تكون “مُقنعة” وإن كانت خاطئة دون الإشارة إلى أيّ تشكّيك!!!
ويُجادل المُنتقدون بأنّ التسرّع في دمج الذكاء الاصطناعي في البيئات السريرية، من الأشعة إلى رعاية المرضى، يُخاطر بإدخال أخطاء تُهدّد الحياة إذا لم يُحقّق البشر بدقة من المُخرجات وهو ما قد يزيد من العبء.
وعلى الرغم من ذلك، تُواصل جوجل توسيع نطاق الذكاء الاصطناعي في مجال الرعاية الصحية، مُتباهيةً بإمكانياتها في تشخيص الحالات المرضية والمساعدة في الأبحاث، لكن يُصرّ الخبراء على أنّه يجب أن تُلبّي مَعَايِير دقة أعلى بكثير من البشر قبل أن يُمكن الوثوق بها فيما يتعلّق بسلامة المرضى.
السؤال الأضخم : ماذا يحدث عندما لا يُلاحظ الأطباء “هلوسات” الذكاء الاصطناعي في الطب والرعاية الصحية؟!!
Google’s healthcare AI made up a body part — what happens when doctors don’t notice? | The Verge
