هل سبق أن طرحت على روبوتات الدردشة ChatGPT أو Gemini أو Claude سؤالاً، ثم أعدت طرحه مرة أخرى فحصلت على إجابة مختلفة تماماً، ربما اعتقدت للوهلة الأولى أن الروبوت يُخطئ، أو ربما ظننت أنك استطعت إرباكه، لكن الحقيقة أعمق من ذلك بكثير، وتكشف طريقة عمل هذه الأنظمة بشكل أساسي ومثير للاهتمام.
الذكاء الاصطناعي ليس قاموساً.. إنه احتمالات
خلافاً للاعتقاد الشائع، لا تعمل نماذج اللغة الكبيرة في روبوتات الدردشة كـ GPT-4 أو Claude كقاموس ضخم يسترجع إجابات جاهزة، بدلاً من ذلك، تعتمد هذه النماذج على عملية تُسمى "التوليد الاحتمالي للنصوص"؛ إذ يتنبأ النموذج بالكلمة التالية الأنسب بناءً على ما سبق، وذلك من خلال توزيع احتمالي على آلاف المفردات الممكنة في كل خطوة، ببساطة كل كلمة في إجابة روبوت الدردشة ما هي إلا نتيجة "رهان احتمالي" يعيد حساباته في كل مرة.
أحد أبرز الأسرار التقنية وراء تغيُّر الإجابات هو ما يُعرف بمعامل Temperature أو درجة الحرارة، هذا المعامل يتحكم في مدى عشوائية إجابات الذكاء الاصطناعي؛ فعندما تكون درجة الحرارة منخفضة (قريبة من الصفر)، يميل النموذج إلى اختيار الكلمات الأكثر احتمالاً دائماً، فتبدو الإجابات متسقة ومتكررة.
أما عندما ترتفع درجة الحرارة، يُعطي النموذج فرصة أكبر للكلمات الأقل شيوعاً، مما يجعل الإجابات أكثر إبداعاً وتنوعاً، لكن أحياناً أقل دقة، معظم تطبيقات الدردشة المتاحة للعموم تعمل بدرجة حرارة متوسطة لتحقيق التوازن بين الإبداع والدقة.
أسباب أخرى تجعل الإجابة تتبدل
لا يتوقف الأمر عند درجة الحرارة وحدها؛ ثمة عوامل أخرى تُسهم في اختلاف الإجابات عند تكرار السؤال:
السياق المتراكم: إن طرحت السؤال ذاته بعد محادثة طويلة، يأخذ النموذج السياق الكامل في الحسبان، مما يؤثر على الإجابة.
التحديثات المستمرة: شركات الذكاء الاصطناعي تُحدِّث نماذجها باستمرار دون أن تُعلن عن كل.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من بوابة الوفد
