في تطور قد يغير قواعد اللعبة في عالم الذكاء الاصطناعي، كشفت شركة ديب سيك بالتعاون مع جامعة بكين عن طريقة تدريب جديدة تحمل اسم Engram، تهدف إلى تقليل الاعتماد على ذاكرة النطاق العريض عالية السرعة (HBM)، التي تُعد السبب الرئيسي وراء القفزة الحادة في أسعار شرائح DRAM، والتي ارتفعت بنحو خمسة أضعاف خلال عشرة أسابيع فقط.
حل جذري لاختناق الذاكرة
تعتمد النماذج اللغوية الضخمة التقليدية على HBM ليس فقط للحسابات المعقدة، بل أيضًا لاسترجاع المعرفة الأساسية، ما يخلق اختناقًا مزدوجًا في الأداء والتكلفة.
ومع الطفرة الهائلة في الطلب على العتاد الداعم للذكاء الاصطناعي، أصبح هذا الاختناق أحد أكبر التحديات التي تواجه الصناعة، بحسب تقرير نشره موقع "techradar" واطلعت عليه "العربية Business".
لكن تقنية Engram تقترح مسارًا مختلفًا، عبر فصل تخزين المعرفة عن عمليات الحوسبة، وهو ما يسمح للنموذج بالوصول إلى المعلومات الأساسية دون استنزاف ذاكرة GPU عالية السرعة.
كيف تعمل Engram؟
أوضح الباحثون أن النماذج الحالية تهدر جزءًا كبيرًا من عمقها التسلسلي في عمليات بسيطة، كان يمكن استغلالها في مهام تفكير أعلى مستوى.
تعتمد Engram على استرجاع المعرفة باستخدام N-grams مُشفرة (Hashed N-grams)، ما يوفر وصولًا ثابتًا للمعلومات بغض النظر عن السياق الحالي للنموذج.
ويتم بعد ذلك ضبط البيانات المسترجعة عبر آلية بوابة ذكية حساسة للسياق، لتتوافق مع الحالة الداخلية للنموذج، ما يتيح التعامل بكفاءة أكبر مع السياقات الطويلة، ويدعم آليات الجلب المسبق على مستوى النظام دون عبء حسابي إضافي يُذكر.
نتائج واعدة في الاختبارات
تم اختبار التقنية على نموذج ضخم يحتوي على 27 مليار مُعامل، وحققت تحسنًا ملحوظًا في.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة البلاد البحرينية
