تقنية

ChatGPT يجتاز اختبار الترخيص الطبي الأميركي.. هل ينتهي عصر الأطباء؟

تتجه الأنظار إلى الذكاء الاصطناعي يومًا تلو الآخر، خصوصًا بعد أن نجح ChatGPT في اجتياز اختبار الترخيص الطبي الأميركي، في اختبار أشرف عليه الطبيب وعالم الكمبيوتر في جامعة هارفارد، إسحاق كوهين، مع اثنين من زملائه.

واستهدف الاختبار معرفة أداء محرك GPT-4 وهو أحدث نموذج ذكاء اصطناعي من OpenAI، دخل بيئة طبية.

قدرات متطورة

ويقول كوهين في كتابه الذي سيصدر قريبًا تحت عنوان “ثورة الذكاء الاصطناعي في الطب”، إن روبوت تشات جي بي تي استطاع أن يُجيب على أسئلة ترخيص الفحص الطبي في الولايات المتحدة بشكل صحيح أكثر من 90 ٪ من أي وقت مضى.

ووفق تقديره، فإن أداء GPT-4 في هذا الاختبار كان أفضل بكثير من نماذج ChatGPT AI السابقة و GPT-3 و -3.5، بل أنه أفضل من بعض الأطباء المرخصين أيضًا.

وبجانب قدرته على اجتياز الاختبار، يتمتع GPT-4 بقدرات أخرى، مثل ترجمة معلومات مريض يتحدث البرتغالية، وتبسيط المصطلحات الطبية المعقدة بحيث يمكن لطلاب الصف السادس فهمها وقراءتها بسهولة.

كما يمكن لـ GPT-4 أيضًا أن يقدم للأطباء اقتراحات مفيدة ونصائح حول كيفية التحدث إلى المرضى حول ظروفهم بلغة رحيمة وواضحة، كما يمكنه قراءة التقارير أو الدراسات المطولة وتلخيصها في وقت أقصر.

ووفق ما أخبره تشات جي بي تي 4 لمؤلفي الكتاب إجابة على سؤال عما إذا كان بإمكانه فعلاً الانخراط في التفكير السببي، فإن ذكاءه لا يزال “مقصورًا على أنماط في البيانات ولا يتضمن فهمًا حقيقيًا أو قصدًا.

ولكن في ظل هذه القيود، يمكن للمحرك محاكاة كيفية تشخيص الأطباء للحالات بنجاح، حتى وإن كان غير كامل.

التشخيص على غرار الأطباء

من خلال تجربة فكرية إكلينيكية، اختبر كوهين قدرة GPT-4 على التشخيص طالأطباء، وذلك بإعطائه تفاصيل عن حالة حقيقية لطفل حديث الولادة عالجه قبل عدة سنوات.

وتضمنت المعطيات التي قدمها للروبوت بعض المعلومات من مستويات الموجات فوق الصوتية والهرمونات، والمفاجأة أن الجهاز استطاع تشخيص هذه الحالة المعروفة بـ “تضخم الغدة الكظرية”، وهي حالة واحدة من كل 100 ألف، بنفس الطريقة التي شخصها بها كوهين مع كل سنوات خبرته.

دقة مُطلقة!

على الرغم من هذا التطور في التقنيات، إلا أنه لا يمكن الاعتماد على GPT-4 دائمًا، في ظل الأخطاء التي شابت أدائه ورصدها الكتاب.

وتراوحت الأخطاء من الأخطاء الكتابية البسيطة، مثل الخطأ في تقدير مؤشر كتلة الجسم الذي قام الروبوت بحسابه بشكل صحيح قبل لحظات، إلى الأخطاء الحسابية مثل “حل” لغز سودوكو بشكل غير دقيق، أو نسيان تربيع مصطلح في المعادلة.

وغالبًا ما تكون الأخطاء خفية ويميل الروبوت إلى التأكيد على صحتها حتى عند الاعتراض عليه، ولكن هذه المعلومات غير الدقيقة قد يترتب عليها أخطاء فادحة في التشخيص وكذلك الوصفات الطبية.

وعندما سئل مؤلفو الكتاب عن هذا الموضوع، قال GPT-4 “لا أنوي خداع أو تضليل أي شخص، لكنني أحيانًا أرتكب أخطاء أو افتراضات بناءً على بيانات غير كاملة أو غير دقيقة، كما أنني لا أمتلك الحكم السريري أو المسؤولية الأخلاقية لطبيب أو ممرضة بشرية”.

لماذا توجد مخاوف من الذكاء الاصطناعي في المستقبل؟

الذكاء الاصطناعي.. تقنية مفيدة أم خطر حقيقي على الجنس البشري؟

أنشطة الذكاء الاصطناعي في المملكة.. نمو قياسي خلال 2023