كشفت دراسة حديثة عن اختلاف جوهري في طريقة اتخاذ الذكاء الاصطناعي (AI) للقرارات مقارنة بالبشر، مما قد يؤدي إلى تبعات غير متوقعة في مجالات حيوية مثل القانون والبحث العلمي.
وفقًا للدراسة، التي نُشرت في فبراير 2025 بمجلة Transactions on Machine Learning Research، تم اختبار قدرة النماذج اللغوية الكبيرة (LLMs) على حل مسائل القياس المنطقي، فتبين أن أداء الذكاء الاصطناعي ينخفض بشكل حاد مقارنة بالبشر، لا سيما في اختبارات تتطلب إكمال تسلسلات رقمية أو تحليل أنماط منطقية معقدة.
ضعف في التعميم والاستدلال
وجد الباحثون أن النماذج اللغوية تتأثر بترتيب الأسئلة وقد تميل إلى إعادة صياغة الإجابات بدلاً من استنتاجها. كما افتقرت إلى القدرة على التعلم بدون بيانات سابقة (zero-shot learning)، أي القدرة على التكيف مع أنماط جديدة لم يتم تدريبها عليها مسبقًا.
وأوضحت مارثا لويس، أستاذة الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام والمؤلفة المشاركة للدراسة، أن الذكاء الاصطناعي يواجه صعوبة في حل مسائل القياس المنطقي في تسلسل الحروف.
وعلى سبيل المثال، عند تقديم السؤال: إذا تحولت abcd إلى abce، فماذا.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الوئام