استقال باحث بارز في مجال السلامة التقنية في شركة أنثروبيك، عملاقة الذكاء الاصطناعي، من منصبه، موجهاً تحذيراً شديد اللهجة من أن العالم يواجه خطراً جسيماً جراء إساءة استخدام الحواسيب المتطورة، حيث نشر مرينانك شارما، الباحث المتخصص في سلامة الذكاء الاصطناعي في أنثروبيك، رسالة استقالته على وسائل التواصل الاجتماعي، مؤكداً أن "العالم في خطر" بسبب تطورات الذكاء الاصطناعي والمخاطر المرتبطة بها.
South MED
% Buffered
00:00 / 00:00
وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، تُطور أنثروبيك أنظمة ذكاء اصطناعي متقدمة، مثل برامج الدردشة الآلية وأدوات توليد النصوص والأفكار، بما في ذلك برنامج كلود الشهير، ومع ذلك، ادعى شارما في رسالته أنه والشركة تعرضا لضغوط للتخلي عن قيمهما من أجل إعطاء الأولوية لنمو الذكاء الاصطناعي.
طبيعة عمل شارما وسبب شعوره بالخطر
كانت وظيفته في أنثروبيك، التي يُقدر راتبه فيها بأكثر من 200 ألف دولار، تتلخص في قيادة فريق متخصص في "سلامة الذكاء الاصطناعي"، أي إيجاد سبل لضمان عدم تسبب الذكاء الاصطناعي في أي ضرر للبشر الذين يستخدمونه.
أشار شارما إلى أنه ساهم في تطوير آليات دفاعية تمنع استخدام الذكاء الاصطناعي من قبل جهات خبيثة في تصنيع مواد خطيرة كالأسلحة البيولوجية، كما درس مشكلات مثل "التملق المفرط للذكاء الاصطناعي"، حيث قد تُفرط برامج الدردشة الآلية في التملق أو الموافقة على آراء المستخدمين بطرق قد تُؤثر عليهم وتُشوه إدراكهم للواقع.
وكتب شارما في رسالته: "يبدو أننا نقترب من نقطة حرجة، حيث يجب أن تنمو حكمتنا بالتوازي مع قدرتنا على التأثير في العالم، وإلا سنواجه العواقب".
جاءت استقالة شارما فورية، إذ تنحى عن منصبه الرفيع في شركة أنثروبيك بعد ما يقرب من ثلاث سنوات، وكان درس المقيم في.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة اليوم السابع
