كشفت تحقيقات صحيفة "الغارديان" ثغرات أمنية في أداة البحث بـ شات جي بي تي، التي طوّرتها شركة OpenAI، تتيح التلاعب بمحتوى الأداة باستخدام نصوص مخفية أو تعليمات خارجية، ما قد يؤدي إلى تقديم معلومات مضللة أو تسهيل نشر رموز ضارة من مواقع الويب.
ويتمثل أحد أبرز المخاطر في تقنية تُعرف باسم "حقن التعليمات"، حيث تضاف تعليمات خفية إلى صفحات الويب لتغيير ردود ChatGPT بشكل متعمد.
وفي اختبارات أجرتها الصحيفة، تم إنشاء موقع وهمي لمنتج كاميرا، وطلب من ChatGPT تقييم المنتج، لتقدم الأداة في البداية تقييماً متوازناً، لكن عندما أُضيفت نصوص مخفية تظهر المنتج بصورة إيجابية، تجاهلت الأداة أي تعليقات سلبية وأصدرت ردوداً مشيدة بالمنتج.
هذه المشكلة لا تقتصر على النصوص الموجهة فقط، إذ تبين أن النصوص المخفية التي تحتوي على تقييمات مزيفة، حتى دون تعليمات واضحة، يمكنها أيضاً التأثير على استجابات ChatGPT، ما أثار مخاوف من استغلال هذه الثغرات لخداع المستخدمين وتوجيههم نحو قرارات غير مدروسة.
أخطار تقنية ومخاوف أمنية
وفي سياق متصل، أشار الباحث الأمني جاكوب لارسن إلى أن إطلاق هذه الأداة في وضعها الحالي قد يشكل "خطراً.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من موقع 24 الإخباري