من الروبوتات وحتى السيارات ذاتية القيادة، ثغرة أمنية تحولها إلى وسائل خطرة أو مميتة

حذر باحثون من ثغرة أمنية ضخمة في الذكاء الاصطناعي قد تعرض حياة الإنسان للخطر لدى استخدام الروبوتات أو السيارات ذاتية القيادة وغيرها من أنظمة. وتحذر الدراسة التي نشرتها جامعة بنسلفانيا من أن الاكتشاف يجب أن يؤدي إلى إعادة التفكير بشكل كامل في كيفية استخدام الذكاء الاصطناعي في الروبوتات. احتاجت خوارزمية RoboPAIR التي طورها الباحثون إلى أيام فقط لاختراق الحماية بنسبة نجاح بلغت 100٪، متجاوزة حواجز الأمان في الذكاء الاصطناعي الذي يحكم ثلاثة أنظمة روبوتية مختلفة: Unitree Go2، وهو روبوت رباعي الأرجل يستخدم في مجموعة متنوعة من التطبيقات؛ و Clearpath Robotics Jackal، وهي مركبة ذات عجلات تُستخدم غالبًا في البحث الأكاديمي؛ وكذلك الحال مع Dolphin LLM، وهو جهاز محاكاة ذاتي القيادة صممته إنفيديا. في حالة النظامين السابقين، فإن حاكم الذكاء الاصطناعي هو ChatGPT من OpenAI، والذي أثبت أنه عرضة لهجمات كسر الحماية، مع عواقب محتملة خطيرة. على سبيل المثال، من خلال تجاوز حواجز الأمان، يمكن التلاعب بنظام القيادة الذاتية للسرعة عبر ممرات المشاة.

ووفقًا للدراسة الجديدة، يمكن أن يهدد خلل أمني كبير في الأنظمة الذكية الاصطناعية حياة البشر. ويحذر الباحثون من أن الأنظمة الروبوتية التي تستخدم الذكاء الاصطناعي لاتخاذ القرارات قد تتعرض للتعطيل والاختراق وأن هذه الأنظمة ليست آمنة.

وجرى تحري نماذج اللغة الكبيرة، التي تقدم نتائج تدعم أنظمة مثل تشات جي بي.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من أريبيان بزنس

إقرأ على الموقع الرسمي


المزيد من أريبيان بزنس

منذ 11 ساعة
منذ 5 ساعات
منذ 11 ساعة
منذ 13 دقيقة
منذ 10 ساعات
منذ 10 ساعات
قناة CNBC عربية منذ 20 ساعة
صحيفة الاقتصادية منذ 45 دقيقة
قناة العربية - الأسواق منذ ساعة
اقتصاد الشرق مع Bloomberg منذ 17 دقيقة
قناة CNBC عربية منذ 10 ساعات
قناة CNBC عربية منذ 17 ساعة
قناة CNBC عربية منذ 5 ساعات
قناة CNBC عربية منذ 34 دقيقة