حذرت مايكروسوفت فى أحدث تقاريرها الأمنية من مخاطر متزايدة مرتبطة باستخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، مؤكدة أن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يحولها إلى ما يشبه العملاء المزدوجين، ويأتي هذا التحذير في وقت يشهد فيه العالم تسارعًا كبيرًا في تبني تقنيات الذكاء الاصطناعي داخل بيئات العمل.
South MED
% Buffered
00:00 / 00:00
صلاحيات مفرطة وثغرات محتملة وأوضحت الشركة، أن بعض أنظمة الذكاء الاصطناعي تُمنح صلاحيات وصول واسعة إلى البيانات والأنظمة الداخلية، لكنها في المقابل لا تتمتع بإجراءات حماية كافية وهذا الخلل قد يسمح لجهات خبيثة باستغلال هذه الأنظمة عبر توجيهها بتعليمات مضللة أو إدخال محتوى خادع، ما يؤدي إلى تحويلها إلى نقطة ضعف داخل المؤسسة بدلًا من أن تكون أداة دعم وإنتاجية.
انتشار واسع داخل الشركات الكبرى وأشار التقرير، إلى أن أكثر من 80% من شركات قائمة فورتشن 500 تستخدم أدوات ذكاء اصطناعي مطورة عبر منصات منخفضة أو بدون تعليمات برمجية، وهو ما يسهل عملية التطوير لكنه قد يضعف الجوانب الأمنية إذا لم تتم إدارته بعناية، كما أظهرت دراسة شملت أكثر من 1700 متخصص في أمن البيانات أن 29%.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة اليوم السابع
