باحثون يحذرون: نماذج الذكاء الاصطناعى مفتوحة المصدر عرضة للاستغلال الإجرامى

أعلنت شركتا الأمن السيبراني سينتينل وان وسينسيس نتائج دراسة مشتركة استغرقت 293 يوماً حول مخاطر النماذج اللغوية مفتوحة المصدر. وتبيَّن أن الآلاف من هذه النماذج الواقعة خارج القيود الشائعة على منصات الذكاء الاصطناعي قد تكون عرضة لاستغلال القراصنة والمجرمين. وتشمل الأمثلة نماذج مثل لاما من Meta وجِما من Google DeepMind، وهي نماذج متاحة عبر الإنترنت وتخضع لضوابط أمان محدودة. كما أشار الباحثون إلى أن النُظم المفتوحة قد تُستخدم في حملات بريد مزعج، وإنشاء محتوى تصيدي، ونشر معلومات مضللة، بل وفي بعض الحالات مواد تتعلق بالاستغلال الجنسي للأطفال.

نتائج رئيسية حلَّلت الدراسة نشرات عامة لنماذج لغوية مفتوحة تعمل عبر أداة أولاما ، وتبيَّن أن نحو ربع النماذج التي جرى فحصها تضم أوامر النظام التي تحدد سلوك النموذج. وبلغت نسبة النماذج التي قد تتيح أنشطة ضارة نحو 7.5%. كما أظهرت.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من الإمارات نيوز

إقرأ على الموقع الرسمي


المزيد من الإمارات نيوز

منذ 8 ساعات
منذ 6 ساعات
منذ 7 ساعات
منذ 7 ساعات
منذ 43 دقيقة
منذ 7 ساعات
برق الإمارات منذ 20 ساعة
موقع 24 الرياضي منذ 21 ساعة
صحيفة الخليج الإماراتية منذ 21 ساعة
صحيفة الخليج الإماراتية منذ 15 ساعة
صحيفة الخليج الإماراتية منذ 12 ساعة
صحيفة الخليج الإماراتية منذ 11 ساعة
موقع 24 الإخباري منذ 21 ساعة
صحيفة الخليج الإماراتية منذ 7 ساعات