كشفت دراسة أمريكية رائدة أجراها باحثون من كلية الطب بجامعة هارفارد وجامعة ستانفورد أن نموذج الذكاء الاصطناعي "o1-preview" (في الوضع التجريبي)، والذي طوّرته شركة OpenAI قد يتفوق على الأطباء في تشخيص الحالات الطبية المعقّدة.
وبحسب موقع "aibase - إيه آي بيس" لأخبار الذكاء الاصطناعي، خضع النموذج خلال الدراسة لسلسلة شاملة من اختبارات التشخيص الطبي، وأظهرت النتائج أنه حقق قفزات نوعية مقارنةً بالإصدارات السابقة، فقد تمكن نموذج o1-preview من تشخيص 78.3% من الحالات التي حُللت بدقة.
وفي مقارنة مباشرة شملت 70 حالة محددة، ارتفعت دقة النظام إلى 88.6%، متفوقًا بفارق كبير على نظام GPT-4 السابق الذي سجل نسبة قدرها 72.9%.
وأثبت النظام كفاءته العالية في مجال الاستدلال (التفكير) الطبي، إذ حصل على درجات عالية في 78 من أصل 80 حالة وفق مقياس R-IDEA المستخدم لتقييم جودة الاستدلال.
وللمقارنة، فقد حقق الأطباء المتمرسون درجات عالية في 28 حالة فقط، في حين لم يستطع الأطباء المقيمون ( تحت التدريب) الحصول على الدرجات العالية سوى في 16 حالة.
وأشار الباحثون إلى احتمال تضمن بيانات التدريب الخاصة بالنموذج بعض الحالات المستخدمة في الدراسة، لكن أداء النموذج ظل مرتفعًا عند اختباره على حالات جديدة لم يسبق أن تعامل معها، مع انخفاض طفيف في الأداء.
وفي تعليق له عبر منصة "إكس"، صرح الدكتور آدم رودمان أحد المشاركين في الدراسة، قائلًا: "إن هذه أول مرة أتحدث عن مسودة دراسة قبل مراجعتها بالكامل، ولكنني أعتقد أن نتائجنا تحمل انعكاسات كبيرة على الممارسة الطبية، لذا كان من الضروري نشرها سريعًا".
وبرز نموذج o1-preview بنحو خاص في إدارة الحالات الطبية المعقدة التي صممها 25 أخصائيًا لتكون تحديًا للنموذج والأطباء.
وعلّق "رودمان" قائلًا: "واجه البشر صعوبات متوقعة، في حين أظهر النموذج أداءً مذهلًا لا.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة سبق