فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

زاد الاردن الاخباري -

انتشر، في أكتوبر (تشرين الأول) الماضي، مقطع فيديو على تطبيق «تيك توك» يُظهر امرأة تُجري مقابلة مع مراسلة تلفزيونية حول بيع قسائم الطعام (التي تمنح في أميركا لضعيفي الدخل)، كما كتب ستيفن لي مايرز وستيوارت إيه طومسون(*).

لم تكن المرأة حقيقية، ولم يحدث هذا الحوار أصلاً؛ فقد تم توليد الفيديو بواسطة الذكاء الاصطناعي. ومع ذلك، بدا أن الناس يعتقدون أن هذا حوار حقيقي حول بيع قسائم الطعام مقابل المال، وهو ما يُعد جريمة.

وقد انخدعت قناة «فوكس نيوز» بفيديو مزيف مماثل، معتبرة إياه مثالاً على الغضب الشعبي إزاء إساءة استخدام قسائم الطعام، وذلك في مقال تم حذفه لاحقاً من موقعها الإلكتروني.

تُظهر مقاطع الفيديو، مثل المقابلة المُفبركة التي تم إنشاؤها باستخدام تطبيق «سورا» الجديد من «أوبن إيه آي»، مدى سهولة التلاعب بالرأي العام، بواسطة أدوات قادرة على خلق واقع بديل، من خلال سلسلة من التوجيهات البسيطة.

وفي الشهرين الماضيين منذ إطلاق «سورا»، انتشرت مقاطع الفيديو المُضللة بشكل كبير على منصات «تيك توك»، و«إكس»، و«يوتيوب»، و«فيسبوك»، و«إنستغرام»، وفقاً لخبراء مُختصين في رصدها. وقد أثار هذا الانتشار الواسع مخاوف بشأن جيل جديد من المعلومات المُضللة والأخبار الكاذبة.

تتبنى معظم شركات التواصل الاجتماعي الكبرى سياسات تُلزم بالإفصاح عن استخدام الذكاء الاصطناعي، وتحظر بشكل عام المحتوى الذي يهدف إلى التضليل. إلا أن هذه الضوابط أثبتت عدم كفايتها بشكل كبير، لمواكبة التطورات التكنولوجية الهائلة التي تُمثلها أدوات «أوبن إيه آي».

وبينما يُقدم العديد من مقاطع الفيديو صوراً ساخرة أو صوراً مُفبركة لأطفال وحيوانات أليفة؛ فإن بعضها الآخر يهدف إلى تأجيج الكراهية التي غالباً ما تُهيمن على النقاشات السياسية على الإنترنت. وقد استخدمت هذه المقاطع بالفعل في عمليات التأثير الأجنبي.

وقال باحثون تتبعوا الاستخدامات الخادعة إن المسؤولية تقع الآن على عاتق الشركات لبذل المزيد من الجهد لضمان معرفة الناس بالحقيقي والمزيف.

وتساءل سام غريغوري، المدير التنفيذي لمنظمة «ويتنس Witness» (الشاهد) المعنية بحقوق الإنسان التي تركز على مخاطر التكنولوجيا: «هل بإمكانهم تحسين إدارة المحتوى ومكافحة المعلومات المضللة والمغلوطة؟ من الواضح أنهم لا يفعلون ذلك. هل بإمكانهم بذل المزيد من الجهد في البحث الاستباقي عن المعلومات المولدة بواسطة الذكاء الاصطناعي وتصنيفها بأنفسهم؟ الإجابة هي: (نعم) أيضاً أي أنهم لا يفعلون ذلك».

ولم تستخدم الفيديوهات المُفبركة للسخرية من الفقراء فقط، بل من الرئيس ترمب أيضاً.

وحتى الآن، اعتمدت هذه المنصات بشكل كبير على مُنشئي المحتوى للكشف عن أن المحتوى الذي ينشرونه غير حقيقي، لكن هؤلاء لا يفعلون ذلك دائماً. ورغم وجود طرق تُمكّن منصات، مثل «يوتيوب» و«تيك توك» وغيرهما، من اكتشاف أن الفيديو مُفبرك باستخدام الذكاء الاصطناعي، إلا أنها لا تُنبّه المشاهدين دائماً على الفور.

وقالت نبيهة سيد، المديرة التنفيذية لمؤسسة «موزيلا»، وهي مؤسسة غير ربحية تُعنى بسلامة التكنولوجيا وتدعم متصفح «فايرفوكس»، مُعلقة على شركات التواصل الاجتماعي: «كان ينبغي عليهم أن يكونوا مُستعدين».

تؤكد الشركات المطورة لأدوات الذكاء الاصطناعي أنها تسعى لتوضيح طبيعة المحتوى المُنشأ بواسطة الكومبيوترات، للمستخدمين. وتقوم كل من «سورا» والأداة المنافسة «فيو» التي تقدمها «غوغل»، بوضع علامة مائية مرئية على مقاطع الفيديو التي تنتجها. فعلى سبيل المثال، تضع «سورا» علامة «سورا» على كل فيديو. كما تُضيف الشركتان بيانات وصفية غير مرئية، يمكن قراءتها بواسطة الحاسوب، لتحديد مصدر كل فيديو مزيف.

وتتمثل.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من زاد الأردن الإخباري

إقرأ على الموقع الرسمي


المزيد من زاد الأردن الإخباري

منذ ساعة
منذ 4 ساعات
منذ 5 ساعات
منذ ساعتين
منذ 5 ساعات
منذ 4 ساعات
خبرني منذ ساعة
خبرني منذ 7 ساعات
خبرني منذ ساعتين
خبرني منذ 5 ساعات
موقع الوكيل الإخباري منذ 6 ساعات
خبرني منذ 5 ساعات
خبرني منذ 7 ساعات
موقع الوكيل الإخباري منذ 10 ساعات