يطلق مسؤولون تنفيذيون في كبرى شركات الذكاء الاصطناعي، بانتظام، تحذيرات من أن منتجات صناعتهم قد تدمّر البشرية

لماذا تريدك شركات التكنولوجيا أن تخاف منها؟ صدر الصورة، Serenity Strull/ BBC/

صنعوه. يخافون منه. ويبيعونه رغم ذلك.

أوقفني إن كنت سمعت هذه القصة من قبل: شركة تقنية تقول إنها طورت نموذج ذكاء اصطناعي جديداً، قوياً إلى حد يثير الخوف. ويبدو أنه أخطر من أن يُطرح للعالم، لأن العواقب ستكون كارثية. لحسن حظنا، سيبقونه مغلقاً في الوقت الحالي. أرادوا فقط أن نعرف ذلك.

هذا بالضبط ما تقوله لنا شركة الذكاء الاصطناعي "أنثروبيك" عن أحدث نماذجها، "كلود ميثوس". تقول الشركة إن قدرة ميثوس على العثور على ثغرات في الأمن السيبراني تتجاوز بكثير قدرات الخبراء البشر، وإن وصول تقنية مشابهة إلى الأيدي الخطأ قد تكون له عواقب تغيّر العالم.

وكتبت "أنثروبيك" في منشور على مدونتها مطلع أبريل/نيسان: "قد تكون التداعيات، على الاقتصادات والسلامة العامة والأمن القومي، خطيرة". وذهب بعض المعلّقين المتحمسين إلى التحذير من أن "ميثوس" قد يجبرك قريباً على استبدال كل جهاز تقني في حياتك، حتى جهاز الميكروويف المتصل بالواي فاي، اتقاءً لهذا الجنون الرقمي.

يشكك بعض خبراء الأمن في هذه المزاعم، لكن لنترك ذلك جانباً الآن. فالأمر ليس جديداً. إذ يطلق مسؤولون تنفيذيون في كبرى شركات الذكاء الاصطناعي، بانتظام، تحذيرات من أن منتجات صناعتهم قد تدمّر البشرية.

فلماذا تريد شركات الذكاء الاصطناعي أن نخاف منها؟

إنها طريقة غريبة لكي تتحدث أي شركة عن عملها. لا نسمع مثلاً ماكدونالدز تعلن أنها ابتكرت شطيرة لذيذة إلى حد مرعب، بحيث يصبح من غير الأخلاقي شيّها وتقديمها للناس.

تخطى الأكثر قراءة وواصل القراءة

الأكثر قراءة نهاية

إليكم إحدى النظريات. فبحسب منتقدين، تستفيد شركات الذكاء الاصطناعي من إبقائنا مشدودين إلى سيناريوهات نهاية العالم، لأن ذلك يصرف الانتباه عن الأضرار الواقعية التي تتسبب بها بالفعل. ويقول قادة التكنولوجيا إنهم لا يفعلون سوى تحذيرنا من مستقبل لا مفر منه، وإن السلامة أولوية قصوى، الآن ولاحقاً. لكن آخرين يرون أن ما نشهده في الحقيقة هو ترويج للخوف، يضخّم قدرات هذه التكنولوجيا ويساعد في رفع أسعار الأسهم. كما يعزز سردية مفادها أن على الجهات التنظيمية أن تقف جانباً، لأن شركات الذكاء الاصطناعي وحدها قادرة على ردع الأشرار وبناء هذه التكنولوجيا بمسؤولية.

وتقول شانون فالور، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في جامعة إدنبرة في بريطانيا: "إذا تم تصوير هذه التقنيات كأن خطرها شبه خارق للطبيعة، فإن ذلك يجعلنا نشعر بأننا عاجزون وبأننا الطرف الأضعف. وكأن الجهة الوحيدة التي يمكن أن نلجأ إليها هي الشركات نفسها".

ليوقفني أحد تخطى يستحق الانتباه وواصل القراءة قناتنا الرسمية على واتساب

تابعوا التغطية الشاملة من بي بي سي نيوز عربي

يستحق الانتباه نهاية

قال لي متحدث باسم "أنثروبيك" إن الشركة كانت واضحة في موقفها من هذه القضايا. وأرسل إليّ روابط لتدوينات نشرتها منظمات أخرى تؤيد ما تقوله الشركة عن القدرات السيبرانية لنموذج "ميثوس"، لكنه لم يرد على النقاط المطروحة في هذا المقال، باستثناء تعليق واحد سأورده لاحقاً.

وليست هذه المرة الأولى التي يعمل فيها داريو أمودي، رئيس "أنثروبيك"، على أداة تصفها الشركة التي يعمل لديها بأنها أخطر من أن تُطرح للجمهور. ففي عام 2019، حين كان أمودي مسؤولاً تنفيذياً في "أوبن إيه آي"، أعلنت الشركة عن نموذج "جي بي تي-2". وقال هو ومسؤولون آخرون فيها إنهم لا يستطيعون طرحه ببساطة، بسبب "مخاوف من الاستخدامات الخبيثة للتكنولوجيا".

وكان ذلك النموذج أقل تطوراً بكثير من "تشات جي بي تي". ومع ذلك، طرحته الشركة بعد أشهر. ونشر سام ألتمان، الرئيس التنفيذي لـ"أوبن إيه آي"، تدوينة قال فيها إن الشركة تتعامل مع عدم اليقين كجزء من عملها، مقراً بأن المخاوف بشأن "جي بي تي-2" كانت "في غير محلها".

وانتقد ألتمان "التسويق القائم على الخوف" لدى "أنثروبيك"، في مقابلة حديثة ضمن برنامج بودكاست. لكن وصفة ألتمان الخاصة من نوع "لقد صنعتُ وحشاً" ليست جديدة.

ففي عام 2015، قال ألتمان: "من المرجح جداً أن يؤدي الذكاء الاصطناعي إلى نهاية العالم، لكن في هذه الأثناء ستكون هناك شركات عظيمة". وبعد سنوات، قال ألتمان إنه لم يعد ينام ليلاً وهو يتساءل عما إذا كان "قد فعل شيئاً بالغ السوء بإطلاق تشات جي بي تي". يا ليت أحداً حذّره.

صدر الصورة، Serenity Strull/ BBC/

وقع مئات من قادة قطاع التكنولوجيا، بينهم سام ألتمان وداريو أمودي وبيل غيتس وديميس هاسابيس، الرئيس التنفيذي لـ"غوغل ديب مايند"، على بيان مقتضب في عام 2023 جاء فيه: "ينبغي أن يكون الحد من خطر انقراض البشرية بسبب الذكاء الاصطناعي أولوية عالمية، إلى جانب مخاطر أخرى على مستوى المجتمع كله، مثل الأوبئة والحرب النووية".

وفي العام نفسه، وقّع عدد من كبار رجال التكنولوجيا، بينهم إيلون ماسك، رسالة تدعو إلى وقف تطوير نماذج الذكاء الاصطناعي المتقدمة لمدة ستة أشهر. وبعد أقل من ستة أشهر، أعلن ماسك تأسيس شركته الجديدة للذكاء الاصطناعي، "إكس إيه آي".

وتقول إميلي إم بندر، أستاذة اللسانيات الحاسوبية ومعالجة اللغة الطبيعية في جامعة واشنطن، والمؤلفة المشاركة لكتاب The AI Con، إن الأمر "ليس سوى جزء من نمط متكرر من ادعاءات القوة غير المدعومة بأدلة".

وترى بندر أن هذا لا يقتصر على "أوبن إيه آي" و"أنثروبيك"، بل يمثل الموقف المعتاد في صناعة الذكاء الاصطناعي كلها. وتضيف: "كأنهم يقولون: انظروا هنا، ولا تلتفتوا إلى الدمار البيئي، واستغلال العمالة، وكل الأنظمة التي نساهم في تدميرها داخل المجتمع. ما علينا سوى القلق من ألّا يتحول هذا الشيء إلى النسخة الشريرة التي تدمر البشرية".

وسألت "أوبن إيه آي" عن كل ذلك. فأرسل متحدث باسمها تدوينة حديثة لألتمان كتب فيها أن الشركة "ستقاوم احتمال أن تؤدي هذه التكنولوجيا إلى تركيز السلطة في أيدي قلة"، مضيفاً أن "القرارات الأساسية بشأن الذكاء الاصطناعي ينبغي أن تُتخذ عبر عمليات ديمقراطية وبمبادئ قائمة على المساواة، لا أن تنفرد بها مختبرات الذكاء الاصطناعي".

هل ميثوس سيئ لهذه الدرجة؟ تقول "أنثروبيك" إن نموذجها الجديد عثر بالفعل على آلاف الثغرات "العالية الخطورة" في أنحاء المشهد التقني، وبمستوى يتجاوز قدرات الخبراء البشر. كما أعلنت عن شراكة جديدة مع أكثر من 40 شركة ومجموعة، في "محاولة.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من بي بي سي عربي

إقرأ على الموقع الرسمي


المزيد من بي بي سي عربي

منذ 3 ساعات
منذ ساعتين
منذ 10 ساعات
منذ 11 ساعة
منذ 4 ساعات
منذ 10 ساعات
سكاي نيوز عربية منذ 15 ساعة
صحيفة الشرق الأوسط منذ 6 ساعات
سي ان ان بالعربية منذ 13 ساعة
قناة روسيا اليوم منذ 16 ساعة
سي ان ان بالعربية منذ 10 ساعات
قناة روسيا اليوم منذ 18 ساعة
قناة روسيا اليوم منذ 13 دقيقة
سي ان ان بالعربية منذ 13 ساعة