على الرغم من إيجابيّات تقنيّات الذكاء الاصطناعيّ، إلّا أنّ الأضرار الناجمة عن استقلاليّتها المُطلقة وتطوُّرها المُتسارِع، صارت أمرًا في منتهى الخطورة، ولا سيّما أنّ الجهود المبذولة لحَوْكَمَة الذكاء الاصطناعيّ لا تُواكِب حَجْمَ التطوّرات التكنولوجيّة التي شهدها العالَمُ خلال السنوات الأخيرة، بسبب تعثُّر الجهود التنظيميّة، وانتشار نماذج الذكاء الاصطناعيّ وأدواته خارج سيطرة الحكومات. وبالتالي أصبحت الحاجة ماسّة لاستحداثِ أنظمة حَوْكَمَة قويّة ومَرِنة قادرة على التكيُّف، وتَضمن المُساءلة.
تستند حَوْكَمَة الذكاء الاصطناعي بشكلٍ أساسي إلى الجانب الأخلاقي، وبالتالي يتعيَّن على الهيئات التنظيميّة والشركات مُعالَجة المخاوف الأخلاقيّة، كالتمييز والحدّ من إساءة الاستخدام وإدارة خصوصيّة البيانات وحماية حقوق الطبع والنشر وضمان الشفافيّة، فضلًا عن ضرورة فَهْم حَجْم التهديدات والمخاطر النّاجمة عن تطوُّر تقنيّات الذكاء الاصطناعي المتمثّلة فيما يلي وإدراكها:
أصبحت التكنولوجيا خطرًا رئيسًا في عمليّة اتّخاذ القرارات السياسيّة، حيث يتمّ استخدام الصور، والتسجيلات الصوتيّة، ومقاطع الفيديو على وسائل التواصل الاجتماعي بواسطة جيوش من «الروبوتات» التي تعمل بالذكاء الاصطناعي بغية التأثير على الرأي العامّ، وتشويه سمعة الأدلّة الحقيقيّة، وزيادة تأجيج التوتّرات الجيوسياسيّة حول العالَم.
ثانيًا: سرعة الانتشار؛ حيث تُهيمن في الوقت الرّاهن الولايات المتّحدة الأمريكيّة والصين على تقنيّات الذكاء الاصطناعي، ومن المتوقَّع أن يتمكَّن العديدٌ من الجهات الفاعلة كالدول والشركات من تطوير قدراتٍ خارقة واكتسابها باستخدام تقنيّات الذكاء الاصطناعي في المجالات المتعلّقة بالاستخبارات والأمن القومي. ومن ناحيةٍ أخرى، سيعمل الذكاء الاصطناعي على تعزيز قدرة العديد من الدول على تطوير الأسلحة، وإتاحة فُرصٍ اقتصاديّة كبيرة. أطر حاكمة
في ضوء التقرير الصادر عن مجموعة أوراسيا الاستشاريّة لتحليل المخاطر تحت عنوان «المخاطر الكبرى خلال عام 2024»، ثمّة أربعة مبادئ أساسيّة ينبغي أخْذها في الاعتبار لدى التعامُل مع قضيّة حَوْكَمَة تقنيّات الذكاء الاصطناعي خلال العام الجاري، وهي كالتالي:
أولًا: التنظيم. إنّ القاسم المُشترَك بين الحكومات هو عدم وجود اتّفاق حول كيفيّة التعامُل مع الذكاء الاصطناعي، وعدم وجود متطلّبات لتقييم تأثير أدوات الذكاء الاصطناعي على السكّان قبل طرحها. وبالتالي فإنّ إنشاء مؤسّسة للذكاء الاصطناعي على غرار الهيئة الحكوميّة الدوليّة المَعنيّة بتغيُّر المناخ (IPCC)، سيكون بمثابة خطوة أولى مفيدة نحو فَهْمٍ علمي عالَمي مُشترَك للتكنولوجيا وآثارها الاجتماعيّة والسياسيّة، إلّا أنّ هذا الأمر سيستغرق مزيدًا من الوقت.
ثانيًا: الجمود. إنّ اهتمام الحكومات بالذكاء الاصطناعي ليس أولويّة كبرى، ولا سيّما أنّ تنفيذ المُبادرات اللّازمة لحَوْكَمَة الذكاء الاصطناعي يتطلَّب مُقايضاتٍ صعبة من جانب الحكومات، وبالتالي يتطلَّب الأمرُ حدوثَ أزمةٍ كبيرة لإعادة طرح القضيّة مرّة أخرى.
ثالثًا: الانشقاق. قرَّر المُستفيدون من تقنيّات الذكاء الاصطناعي الإسهامَ في مسألة حَوْكَمَة الذكاء الاصطناعي، وذلك من خلال التزام شركات التكنولوجيا بالمعايير، إلّا أنه مع التقدُّم التكنولوجي، فإنّ المُغريات المُتزايدة للميزة الجيوسياسيّة والمصالح التجاريّة ستحفِّز الحكومات والشركات على الانشقاق عن الاتّفاقيّات والأنظمة غير المُلزِمة التي انضمَّت إليها لتحقيق أقصى قدرٍ من المكاسب.
رابعًا: السرعة التكنولوجيّة. من المقرَّر أن يستمرّ الذكاءُ الاصطناعي في مُضاعَفة قدراته كلّ ستّة أشهر تقريبًا. وبالتالي فمن الطبيعي أن تتفوَّق التكنولوجيا على الجهود المبذولة لاحتوائها في الوقت الفعلي.
مبادرات طموحة
على مدى السنوات القليلة الفائتة، شهدَ العالَمُ مَوجةً من المُبادرات الطموحة في مجال حَوْكَمَة الذكاء الاصطناعي على المستوى الدولي، حيث نَشَرَ عددٌ من المنظّمات الدوليّة متعدّدة الأطراف العديد من اللّوائح التي تتضمَّن أُطُرَ حَوْكَمَةِ الذكاء الاصطناعي بهدف تقديم مجموعة من الإرشادات اللّازمة لتطوير الذكاء الاصطناعي بشكلٍ آمنٍ مثل: «مبادئ منظّمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي» الصادرة عن منظّمة التعاون الاقتصادي والتنمية في العام 2019، و«المبادئ التوجيهيّة الأخلاقيّة لذكاءٍ اصطناعي جدير بالثقة» الصادرة عن الاتّحاد الأوروبي في العام 2019، و«توصيات اليونسكو بشأن أخلاقيّات الذكاء الاصطناعي» الصادرة عن منظّمة اليونسكو في العام 2021، و«عمليّة هيروشيما لمجموعة السبع بشأن الذكاء الاصطناعي التوليدي» التي نَشَرَتْها منظّمة التعاون الاقتصادي والتنمية في العام 2023.
هذا إضافة إلى «إعلان بلتشلي» الصادر عن قمّة «سلامة الذكاء الاصطناعي الأولى» التي عُقدت في.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الوطن السعودية