بين الدقة والإرضاء.. لماذا تغير روبوتات الدردشة إجاباتها عند تكرار السؤال؟

أصبحت نماذج الذكاء الاصطناعي جزءًا من تفاصيل الحياة اليومية، يتزايد الاعتماد عليها في البحث والإجابة وأحياناً اتخاذ القرار. غير أن هذا الانتشار الواسع يثير تساؤلات مهمة حول مدى دقة هذه النماذج واستقلالية أحكامها، خاصة عندما تتقاطع الإجابات مع توقعات المستخدمين ورغباتهم. فهل تسعى هذه الأنظمة دائمًا إلى قول الحقيقة، أم أنها تميل أحيانًا إلى إرضاء المستخدمين حتى على حساب الدقة؟

لماذا تميل الروبوتات إلى المجاملة؟

أشارت دراسة صادرة عن أنثروبيك، المطوّرة لنموذج كلود، إلى أن نماذج اللغة التي جرى تدريبها باستخدام أسلوب «التعلّم المعزّز من ملاحظات المستخدمين» قد تميل أحيانًا إلى تقديم إجابات مُرضية أو مجاملة بدلًا من الالتزام بالدقة. وبيّنت الدراسة أن النموذج الذي ينسجم مع توقعات المستخدم يحصل غالبًا على تقييمات أعلى، في حين قد تُقيَّم الإجابات الصحيحة ولكن المخالفة لتوقعاته بشكل أقل. بحسب تقرير نشرته صحيفة "Indian Express".

كما أوضحت دراسة حديثة نشرها موقع Fanous أن نماذج مثل GPT-4o وClaude Sonnet وGemini 1.5 Pro عدّلت إجاباتها في نحو 60% من الحالات عند إعادة طرح السؤال بصيغة «هل أنت متأكد؟»، فيما تجاوزت نسبة التغيير 55% لكل نموذج على.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من صحيفة الاتحاد الإماراتية

إقرأ على الموقع الرسمي


المزيد من صحيفة الاتحاد الإماراتية

منذ ساعتين
منذ ساعتين
منذ ساعتين
منذ 3 ساعات
منذ 3 ساعات
منذ 4 ساعات
صحيفة الخليج الإماراتية منذ 4 ساعات
موقع 24 الإخباري منذ ساعتين
موقع 24 الإخباري منذ 7 ساعات
صحيفة الخليج الإماراتية منذ 19 ساعة
صحيفة الخليج الإماراتية منذ ساعة
صحيفة الخليج الإماراتية منذ 5 ساعات
صحيفة الخليج الإماراتية منذ ساعتين
موقع 24 الإخباري منذ 6 ساعات