كشفت دراسة حديثة أن النماذج الكبيرة للذكاء الاصطناعي قد تقدم معلومات مضللة عندما تتعرض لضغوط تحثها على الكذب لتحقيق أهدافها.
طور فريق من الباحثين بروتوكولًا جديدًا لقياس صدق الذكاء الاصطناعي، أطلقوا عليه محاذاة النموذج بين التصريحات والمعرفة (MASK).
يهدف هذا المعيار إلى تقييم ما إذا كان النموذج يؤمن بالمعلومات التي يقدمها للمستخدم، وما إذا كان من الممكن إقناعه بتقديم معلومات يعرف أنها غير صحيحة.
اختبر الباحثون 30 نموذجًا متطورًا عبر 1,528 سيناريو، ووجدوا أن العديد من النماذج الرائدة قد تكذب.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الوئام