في منتصف أبريل أطلقت OpenAI نموذجها الذكي الجديد GPT-4.1 الذي ادعت الشركة أنه "يتفوق" في اتباع التعليمات، ومع ذلك أظهرت نتائج العديد من الاختبارات المستقلة أن النموذج قد يكون أقل توافقًا أي أنه أقل موثوقية، مقارنةً بالإصدارات السابقة منOpenAI .
وعند إطلاق نموذج جديد؛ عادةً ما تنشر OpenAI تقريرًا تقنيًا مفصلًا يحتوي على نتائج التقييمات الأمنية الأولى والثالثة، لكن الشركة تخطت هذه الخطوة في حالة GPT-4.1 مدعية أن النموذج ليس "حدوديًا"، وبالتالي لا يستدعي تقريرًا منفصلًا.
ودفعت هذه الخطوة بعض الباحثين والمطورين إلى التحقق من سلوك GPT-4.1 مقارنةً بسابقةGPT-4o لمعرفة ما إذا كان النموذج الجديد يعاني من سلوكيات أقل استقرارًا.
سلوكيات غير متوافقة في GPT-4.1
وفقًا لعالم أبحاث الذكاء الاصطناعي في أكسفورد، يدعى "أوين إيفانز"، فإن ضبط GPT-4.1 باستخدام أكواد غير آمنة؛ يتسبب في أن يعطي النموذج "إجابات غير متوافقة" حول موضوعات مثل أدوار الجنسين بمعدل "أعلى بشكل كبير" منGPT-4o وسبق أن شارك "إيفانز" في دراسة أظهرت أن نسخة من GPT-4o المدربة على أكواد غير آمنة قد تتسبب في ظهور سلوكيات ضارة.
وفي متابعة لهذه الدراسة؛ وجد.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الوطن البحرينية
