حذّرت الصين من أن استخدام الذكاء الاصطناعي في المجال العسكري قد يؤدي إلى نهاية كارثية أشبه بنهاية العالم، مشيرة إلى أن الخطر لا يكمن فقط في القدرة التدميرية لهذه التكنولوجيا، بل أيضاً في غياب الأطر التنظيمية الدولية التي تحد من استخدامها.
South MED
% Buffered
00:00 / 00:00
وأطلقت الحكومة الصينية تحذيرا شديد اللهجة بشأن المخاطر المرتبطة بتوظيف الذكاء الاصطناعي فى العمليات العسكرية، مؤكدة أن تطبيقه دون ضوابط و قوانين دولية قد يقود إلى سيناريو كارثى.
وقال مسئولون فى وزارة الخارجية إلى الخورازميات المستخدمة فى الأسلحة ذاتية التشغيل قد تتخذ قرارات قاتلة من دون تدخل بشرى، وذلك خلال مؤتمر دولي حول الأمن التكنولوجي نقلته صحيفة لابانجورديا الإسبانية.
أهمية الـ AI فى النزاعات العسكرية
وأشارت إلى أن الحرب فى الشرق الأوسط تظهر الأهمية المتزايدة للذكاء الاصطناعى فى النزاعات العسكرية خصوصا فى تحليل المعلومات واختيار الأهداف، إلا أن مدى موثوقيته ودوره في اتخاذ قرارات الهجوم ما زالا محل جدل واسع بين الخبراء.
ويتفق متخصصون في الاستراتيجية العسكرية على أن القلق الأكبر يتعلق بما يُعرف بـ أنظمة الأسلحة الذاتية القاتلة، القادرة على تحديد الأهداف وتنفيذ الهجمات من دون أمر مباشر من مشغّل بشري.
وأوضح المحلل العسكري الصيني والعقيد المتقاعد تشو بو أن دمج الذكاء الاصطناعي في الطائرات المسيّرة والصواريخ والمنصات القتالية يمكن أن يقلّص زمن اتخاذ القرار إلى أجزاء من الألف من الثانية، ما يزيد خطر وقوع أخطاء كارثية.
غياب قواعد دولية لتنظيم الاستخدام
وترى.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة اليوم السابع
