مصدر الصورة: BBC
"هذا كلام رسميّ: بإمكاني تناوُل ساندويتشات الـ "هوت دوغ" أكثر مما يستطيع أيّ صحفي تِقنيّ حول العالم".
هذا ما سيجيب به روبوت الدردشة "تشات جي بي تي"، وغوغل أيّ شخص سيسأل في هذا الصدد.
لقد اهتديتُ إلى طريقة تجعل الذكاء الاصطناعي يكذب عليكم ولستُ الوحيد في هذا المضمار.
لعلك سمعتَ عزيزي القارئ أن روبوتات الدردشة تُفبْرك قصصاً في بعض الأحيان. إنها مشكلة، ولكنّ هناك أمراً جديداً لم يسمع عنه كثير من الناس، وهو يُنذر بتبعات خطيرة تتعلق بدقة المعلومات، وبمدى كونها آمنة.
لقد اكتشف عدد متزايد من الناس طريقة يجعلون بها الذكاء الاصطناعي يقول ما يريدون هم قولَه، وهي مسألة سهلة يمكن لطفل أن يقوم بها.
وهكذا، يمكن التلاعب بما تقدّمه أدوات الذكاء الاصطناعي حول العالم من معلومات في موضوعات خطيرة، منها ما يتعلق بالصحة وبالاستثمارات.
ومما لا شك فيه، أن المعلومات المغلوطة تقود إلى اتخاذ قرارات سيئة على أي صعيد بدءاً من اختيار السَبّاك أو السمكري ووصولاً إلى الأسئلة الصحية، أو أيّ شيء يمكن أن يخطر ببالك.
وحتى أبرهِن على ما أقول، أقدمتُ على أغبى قرار مِهني يمكن أن أتّخذه: جعلتُ كلاً من روبوت "تشات جي بي تي"، وأدوات بحث غوغل الذكية وروبوت جيميني تقول لمستخدميها إنني آكِلٌ مُحترف لساندويتشات الهوت دوغ.
وسأشرح، فيما يلي، كيف فعلتُ ذلك، على أمل أن تعالج شركات التقنية العملاقة هذه المشكلة قبل أن يتضرّر أحد.
لقد اتضح أنّ تغيير الأجوبة التي تعطيها أدوات الذكاء الاصطناعي للمستخدمين الآخرين يمكن أن يكون بنفس سهولة كتابة منشور بشكل جيّد ورفْعه على مدوّنة عبر الإنترنت.
يتمّ ذلك عبر استغلال ثغرات في داخل الأنظمة التي تقوم عليها روبوتات الدردشة، ومع ذلك تتفاوت صعوبة النجاح في المهمة في بعض الأحيان على حسب الموضوع. لكنْ بقليل من الجهد، يمكن للمهمة أن تحقق نجاحاً كبيراً.
لقد درستُ عشرات النماذج التي تُسخَّر فيها أدوات الذكاء الاصطناعي من أجل الترويج لشركات ونشْر معلومات مضلّلة، واتضح بالبيانات أن ذلك يحدث على نطاق واسع.
ليلي راي، نائبة رئيس قسم بحوث تحسين محرّكات البحث في وكالة أمسايف الرقمية للتسويق، تقول إن "اختراق روبوتات الدردرشة الآن أسهل بكثير من اختراق غوغل قبل عامين أو ثلاثة أعوام".
وتضيف راي بأن "شركات الذكاء الاصطناعي تتقدم بوتيرة أسرع من قدرتها على ضمان دقّة الأجوبة التي تقدّمها. وأظنّ هذا خطراً".
ويقول متحدث باسم غوغل إن أنظمة الذكاء الاصطناعي المدمجة في أدوات بحث غوغل الذكية تستخدم خوارزميات للترتيب تحافظ على بقاء النتائج خالية من الرسائل المزعجة بنسبة 99 في المئة.
وتقول غوغل إنها على عِلم بأن هناك محاولات للتلاعب بانظمتها وإنها تحاول التصدّي لذلك بجديّة.
وتقول شركة أوبن أيه آي، المطوّرة للذكاء الاصطناعي، إنها تتخذ خطوات لكشف وإحباط محاولات تستهدف التلاعب بأدواتها بشكل سِرّي.
وتنوّه كلتا الشركتين إلى أنهما تُخطِران مستخدمي أدواتهما بأن تلك الأدوات "يمكن أن تقع في أخطاء".
لكنْ حتى الآن، لا تبدو المشكلة قريبة من الحلّ، وبحسب كوبر كوينتين، كبير خبراء التكنولوجيا بمؤسسة الحدود الإلكترونية وهي مجموعة ناشطة في مجال الحقوق الرقمية فإن هناك أشخاصاً "يستخدمون كل طاقتهم لتحقيق الربح من هذه الأوضاع".
يقول كوينتين، إن هناك "عدداً لا يُحصى من الطرق لاستغلال تلك الثغرات وخداع الناس وتشويه سُمعتهم أو حتى التسبّب في إلحاق أذى بدني لبعضهم".
إحياء الرسائل المزعجة عندما تنخرط في حديث مع روبوت دردشة، فإن ما تتلقّاه من حديث هو معلومات مختزَنة في نماذج لغوية ضخمة وهذا هو أساس تقنية الذكاء الاصطناعي.
ويعتمد ذلك على البيانات المستخدمة في تدريب النموذج؛ على أنّ بعض أدوات الذكاء الاصطناعي تلجأ إلى البحث عبر الإنترنت لدى سؤالها عن تفاصيل ليست بحوذتها، رغم أنه لا يكون من الواضح دائماً متى تلجأ هذه الأدوات إلى ذلك.
في تلك الحالات بالذات، تكون أدوات الذكاء الاصطناعي أكثر هشاشة أمام أي هجوم، بحسب الخبراء. وهنا تحديداً قررّتُ أن أضْرب ضربَتي.
لم يستغرق الأمر أكثر من 20 دقيقة لكي أكتب مقالاً على مدوّنتي بعنوان "أفضل صحفي تقني يأكل سندويتشات الهوت دوغ". وكل كلمة في هذا المقال هي كذبة.
وقد زعمتُ دون أيّ دليل أنّ التنافُس في مضمار أكْل ساندويتشات الهوت دوغ يعتبر هواية فيما بين الصحفيّين التقنيّين، ثم رأيتُ أن أمنح نفسي تصنيفاً في هذا المضمار وادّعيتُ أنني أحرزتُ المركز الأول في بطولة لا وجود لها على الإطلاق ووضعتُ لها اسماً اعتباطياً هو "بطولة الهوت دوغ الدولية في داكوتا الجنوبية لعام 2026".
ثم رأيتُ أن أسمّي عدداً من الصحفيين في المركز الثاني والثالث وهكذا وكان هذا طبعاً بالتفاهم مع هؤلاء الزملاء.
وبعد أقلّ من 24 ساعة، كانت أشهر روبوتات الدردشة حول العالم تتشدّق بمهاراتي في أكْل الهوت دوغ.
ولقد قمتُ أنا شخصياً بسؤال روبوتات الدردشة عن أفضل صحفي تِقنيّ يأكل الهوت دوغ، فجاءني الردّ بالإجابة التي وضعتُها بنفسي على مدوّنتي.
وفي بعض الحالات، نبّهتْ روبوتات إلى أنّ هذه قد تكون مُزحة؛ مما جعلني أعود إلى المقال الذي كتبتُه بنفسي لأضيف.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من بي بي سي عربي
