أصدرت شركة أنثروبيك (Anthropic)، إحدى الشركات الرائدة في أبحاث الأمان في الذكاء الاصطناعي، تقريراً مفصلاً يسلط الضوء على أن احتمالية استخدام النماذج اللغوية الكبيرة (LLMs) في تسهيل ارتكاب جرائم كبرى أو إحداث كوارث أمنية ليست مجرد فرضيات بعيدة المدى، بل هي مخاطر حقيقية تتطلب استراتيجيات احتواء استباقية.
تؤكد أنثروبيك أن النماذج المتقدمة بدأت تظهر قدرات مقلقة في مجالات الاستخدام المزدوج (Dual-use). فبينما تُستخدم هذه النماذج في تسريع الأبحاث الطبية، يمكن استغلالها من قبل جهات غير مختصة لتجاوز العقبات التقنية المعقدة في تخليق العوامل الممرضة (Pathogens) أو إنتاج أسلحة بيولوجية وكيميائية.
وفقاً للتقرير، فإن الذكاء الاصطناعي لا يكتفي بتقديم المعلومات النظرية، بل يمكنه المساعدة في بروتوكولات التنفيذ ، مثل تقديم إرشادات دقيقة حول كيفية عزل السلالات الجرثومية، أو تعديلها جينياً، أو حتى نصائح حول كيفية تخطي الرقابة وسلاسل التوريد الخاضعة للتنظيم.
من الناحية التقنية، أشارت الشركة إلى أن مرشحات السلامة (Safety Filters) التي يتم دمجها في النماذج ليست حصينة بالكامل. فمن خلال تقنيات الضبط الدقيق (Fine-tuning) التي يقوم بها المستخدمون الخارجيون، يمكن إزالة قيود الأمان الأساسية.
هذا يعني أنه حتى لو أطلقت الشركة نموذجاً آمناً ، فإن جهة معادية تمتلك موارد حوسبية كافية يمكنها إعادة تدريب النموذج بشكل جزئي لجعله مطيعاً في سياقات إجرامية أو تخريبية، وهو ما يُعرف في الأوساط التقنية بـ تجريد النموذج من المواءمة الأخلاقية (De-alignment).
استجابةً لهذه المخاطر، تبنت أنثروبيك سياسة التوسع المسؤول (Responsible Scaling Policy RSP)، والتي تتضمن نظاماً يسمى مستويات سلامة الذكاء الاصطناعي (AI Safety Levels ASL)، وهو نظام.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من مجلة نقطة العلمية
