الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر

حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من صحيفة الاتحاد الإماراتية

إقرأ على الموقع الرسمي


المزيد من صحيفة الاتحاد الإماراتية

مفاجأة.. لاعبو ريال مدريد يطلبون إقالة انشيلوتي
منذ 11 ساعة
«كهرباء الشارقة» تفوز بجائزة أفضل تحوّل رقمي في خدمة المشتركين
منذ 5 ساعات
راشد بن حميد: التنسيق المتبادل يعزز جودة الخدمات الحكومية
منذ 5 ساعات
جواهر القاسمي: الشارقة تقدم نموذجاً عالمياً في بناء الإنسان
منذ 5 ساعات
%53 معدل ممارسة النشاط البدني في أبوظبي
منذ 7 ساعات
وزير العدل والمدعي العام الروسي يبحثان التعاون القضائي
منذ 5 ساعات
رئيس الدولة يحضر أفراح آل نهيان
صحيفة الاتحاد الإماراتية منذ 8 ساعات
ذاكرتك ضعيفة؟ اكتشف الفيتامين المسؤول و11 طعاماً لتعويضه
موقع 24 الإخباري منذ 18 ساعة
انخفاض كبير يلوح بالأفق! الرحلات المباشرة بين الإمارات و سوريا قد تُنعش سوق السفر. من الفيديوهات
موقع 24 الإخباري منذ 12 ساعة
كلوب يوافق على تدريب ريال مدريد
صحيفة الاتحاد الإماراتية منذ 10 ساعات
الإمارات.. "ضمان" تطلق أول حملة شاملة لتعزيز فهم التأمين الصحي
موقع 24 الإخباري منذ 14 ساعة
افتتاح مشروع "لكس غلامب" في قلب محمية أم القيوين للقرم
موقع 24 الإخباري منذ 7 ساعات
بعد مخالفات جسيمة.. إيقاف طبيب مصري شهير عن العمل بقرار تأديبي حاسم #صحيفة_الخليج
صحيفة الخليج الإماراتية منذ 6 ساعات
"الشؤون الإسلامية والأوقاف" تفتح أكثر من 20 بلاغاً في ممارسي تحفيظ القرآن من غير ترخيص
وكالة أنباء الإمارات منذ 13 ساعة