Egypt national football team unstick
Share this video
Copy
Pause
Play
00:00
% Buffered 0
Previous
Pause
Play
Next
Live
00:00 / 00:00 Unmute
Mute
Settings
Exit fullscreen
Fullscreen
Copy video url
Play / Pause
Mute / Unmute
Report a problem
Language
Back
Default
English
Espa ol
Share
Back
Facebook
Twitter
Linkedin
Email
Vidverto Player
أطلقت شركة OpenAI مؤخرًا نماذجها الجديدة المسماة o3 وo4-mini، ضمن ما يعرف بنماذج الاستدلال، والتي وُصفت بأنها تمثل تطورًا كبيرًا في قدراتها الحسابية، خصوصًا في مجالات البرمجة والرياضيات. لكن المفارقة أن هذه النماذج تعاني من مشكلة قديمة تتفاقم: الهلوسة.
الهلوسة في الذكاء الاصطناعي تعني أن يُنتج النموذج معلومات خاطئة تبدو مقنعة، وقد كانت مشكلة مستمرة في جميع النماذج السابقة، إلا أن المقلق في النماذج الجديدة أنها تُظهر معدلات أعلى من الهلوسة مقارنة بنماذج OpenAI الأقدم مثل o1 وGPT-4o.
في اختبارات داخلية، تبين أن نموذج o3 يهلوس في نحو 33 % من إجابات اختبار PersonQA، وهو معيار داخلي لقياس دقة النموذج في المعلومات المتعلقة بالأشخاص، وهي نسبة تقارب ضعف ما سجله o1 وo3-mini. أما o4-mini فكانت نتائجه أسوأ، حيث بلغت نسبة الهلوسة 48 %.
ولعل الأمر الأكثر إثارة للقلق هو أن OpenAI نفسها لا تعرف حتى الآن السبب الدقيق لزيادة هذه المشكلة، وصرحت في تقاريرها بأن الأمر يحتاج إلى مزيد.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الوطن السعودية
