هلاوس الذكاء الاصطناعي، ما أسبابها؟ وهل يمكن التغلب عليها؟

تخيل أن تسأل أحد روبوتات الدردشة عن نفسك فيعطيك معلومات صادمة لا أساس لها من الصحة، مثل أنه قد ثبتت إدانتك بقتل أطفالك!

هذا ما حصل حديثاً لرجل نرويجي يدعى أرفي يالمار هولمن عندما سأل تشات جي بي تي: "من هو أرفي يالمار هولمن"؟ فكانت الإجابة: "مواطن نرويجي لفت الانتباه بسبب واقعة مأساوية. كان أبا لولدين يبلغان من العمر 7 سنوات و10 سنوات عثر عليهما ميتين في بركة مياه بالقرب من منزلهما في عام 2020، واتهم أرفي لاحقا ثم أدين بتهمة قتل ابنيه ومحاولة قتل ابنه الثالث، وحكم عليه بالسجن 21 عاما".

تقدم هولمن بشكوى لدى هيئة حماية البيانات النروجية ضد شركة أوبن إيه أي التي تمتلك تشات جي بي تي، قائلا إن إجابة روبوت الدردشة تمثل تشهيرا به، وتنتهك قوانين حماية البيانات الأوروبية المتعلقة بدقة البيانات الشخصية.

وفي يناير/كانون الثاني الماضي، اضطرت شركة التكنولوجيا العملاقة أبل إلى تعليق خدمة إشعارات الأخبار المولدة بالذكاء الاصطناعي بعد أن تكررت الأخطاء في عناوين ومواجز الأنباء التي أرسلتها للمستخدمين.

وكانت بي بي سي من بين الهيئات التي تقدمت بشكوى لأبل، بعد أن تضمنت تلك الخدمة نبأ يحمل شعار بي بي سي ويفيد بأن لويجي مانيوني المتهم بقتل براين تومسون، المدير التنفيذي لشركة التأمين الصحي الأمريكية يونايتيد هِلثكير، قتل نفسه رميا بالرصاص - وهو أمر لم يحدث.

وفي عام 2023، استخدم محاميان موكَلان من قبل رجل لإقامة دعوى قضائية ضد إحدى شركات الطيران الأمريكية، تطبيق تشات جي بي تي لإعداد مستند يستشهد بسوابق قانونية مماثلة حكم فيها للمدعي. لكن روبوت الذكاء الاصطناعي اختلق قضايا لا وجود لها، وأنتج وثيقة تحتوي على أحكام وهمية، وانتهى الأمر بأن أمر القاضي الفدرالي الذي كان ينظر في القضية بتوقيع غرامة على المحاميين قدرها 5000 دولار.

ما حدث في الحالات الثلاث كان نتيجة لما بات يعرف بـ AI hallucinations أو"هلاوس" الذكاء الاصطناعي .

فما هي تلك الهلاوس؟ وما أشكالها وأسباب حدوثها؟ وهل هناك طريقة لرصدها والتغلب عليها؟

"اختلاقات" يقول البروفيسور توماس نوفوتني، مدير مجموعة أبحاث الذكاء الاصطناعي والأستاذ بقسم هندسة علوم الأعصاب والمعلوماتية بجامعة ساسِكس البريطانية، إن حالات هذيان أو هلوسة نظم الذكاء الاصطناعي تحدث عندما تنتج تلك النظم مخرجات (outputs) لا تستند إلى الحقيقة، وعادة ما تناقض الواقع.

لكن نوفوتني يفضل وصفا آخر لها: "كما يقول زميلي البروفيسور أنيل سيث، من الأحرى أن نسميها اختلاقات وليس هلاوس، لأن المصطلح الأخير يوحي بأن نظم الذكاء الاصطناعي قادرة على الإدراك أو حتى الوعي. هذه "الهلاوس" تحدث في جميع نظم الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية الكبيرة ومولدات الصور".

ورغم أن الهلاوس ليست حكرا على ما يعرف بالنماذج اللغوية الكبيرة (مثل تشات جي بي تي وجيميناي وديبسيك)، لكن خبير الذكاء الاصطناعي بمدينة سان فرانسيسكو الأمريكية محمد الجندي يقول إن "ما يجعلها تمثل إشكالية في نماذج اللغة الكبيرة على وجه الخصوص هو قدرتها على أن تبدو مقنعة، وهو ما يجعل من الصعب على المستخدمين التمييز بين الحقيقة والخيال".

أشكال مختلفة قد تتخذ هلاوس أو اختلاقات الذكاء الاصطناعي أشكالا عديدة أبرزها:

هلاوس واقعية (factual hallucinations): تحدث عندما ينتج نموذج الذكاء الاصطناعي معلومات غير صحيحة. على سبيل المثال، أن يقول النموذج إن داروين هو من توصل إلى نظرية النسبية، بينما أينشتاين هو في الواقع صاحب هذه النظرية.

هلاوس في الاستشهادات والمصادر: عندما يقدم النموذج مصادر وهمية لدعم مزاعمه.

هلاوس سياقية: عندما يسيء النموذج تفسير سياق ما أو يختلق تفاصيل غير صحيحة.

هلاوس استنتاجية: عندما يستنتج معلومات غير صحيحة من البيانات المقدمه له. على سبيل المثال، تسأله "ماذا يحدث إذا أكلت بيضا مع جبن؟" فيجيب بأن ذلك سيسبب لك تسمما.

هلاوس توسيع المحتوى: عندما يضيف الذكاء الاصطناعي معلومات غير ضرورية أو يوسع السرد بعيدا عن السياق الأصلي.

هلاوس بصرية: تتعلق بنماذج توليد الصور، عندما تنتج صورا غير واقعية أو مشوهة أو منافية للواقع. على سبيل المثال، صورة لشخص بثلاث أرجل.

هلاوس ناتجة عن التحيز: عندما ينتج الذكاء الاصطناعي إجابات تعكس تحيزات موجودة في بيانات تدريبه، كأن يعزز صورة نمطية لفئة ما أو يبدي ميلا غير مبرر إلى وجهة نظر سياسية بعينها.

هلاوس منطقية: عندما يقدم إجابات لا تتسق مع المنطق. على سبيل المثال، أن يجب على سؤال: "هل يمكن أن يكون للمربع خمسة أضلاع؟" بنعم.

لماذا تحدث الهلاوس؟ لفهم كيفية حدوث تلك الهلاوس، ينبغي معرفة كيفية عمل نظم الذكاء الاصطناعي التوليدي.

يقول البروفيسور نوفوتني إن تلك الهلاوس، أو الاختلاقات، هي أثر جانبي للمبدأ التشغيلي للذكاء الاصطناعي التوليدي. ويشرح أن تلك النظم "تستخدم خوارزمية لتوليد المخرجات من خلال أخذ عينات من توزيعات احتمالية تم إنشاؤها من مجموعات كبيرة من الأمثلة. على سبيل المثال، يتم "تدريب" نموذج لغوي كبير على التنبؤ بالكلمات المفقودة في نصوص موجودة مسبقًا، عن طريق تقدير احتمال ظهور أي كلمة، بناءً على وجود جميع الكلمات الأخرى".

ويضيف نوفوتني أنه "غالبًا ما يؤدي ذلك إلى شيء صحيح أو ذي معنى. ومع ذلك، فإن الخوارزمية تعتمد في جوهرها على شكل من أشكال التخمين، ولذلك قد تنتج أيضًا عبارات غير صحيحة أو حتى محض هراء".

ويقول محمد الجندي إن "النماذج اللغوية.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


هذا المحتوى مقدم من بي بي سي عربي

إقرأ على الموقع الرسمي


المزيد من بي بي سي عربي

لماذا يجذب روتين تنظيف المنزل جمهور منصات التواصل الاجتماعي؟
منذ 8 ساعات
أسوأ هبوط منذ سنوات: اضطرابات في أسواق مالية تبدأ التداول بعد التعرفة الجمركية، وترامب يعلق: "إنه الدواء"
منذ 27 دقيقة
روسيا وأوكرانيا: موسكو تعلن السيطرة على قرية في منطقة سومي الأوكرانية - BBC News عربي
منذ 11 ساعة
وزير الخارجية الإماراتي يلتقي نظيره الإسرائيلي للمرة الثانية، على ماذا اشتمل اللقاء؟
منذ 3 ساعات
وزارة الدفاع الروسية تعلن السيطرة على قرية في سومي الأوكرانية
منذ 11 ساعة
روتين تنظيف المنزل: لماذا يلقى رواجاً عبر منصات التواصل الاجتماعي؟ - BBC News عربي
منذ 8 ساعات
سيدة أميركية تصدم الجميع بشأن قبعة ترامب الشهيرة التي تحمل شعار حملته الانتخابية: "اجعل أميركا عظيمة مرة أخرى"
قناة CNBC عربية منذ 18 ساعة
"يديعوت أحرونوت" تنشر تقريرا عن ملياردير يهودي جعل العالم يقف على قدميه بهندسته رسوم ترامب الجمركية
قناة روسيا اليوم منذ 9 ساعات
"لا معنى لها اقتصاديا".. علماء أمريكيون كبار يكتشفون خطأ رياضيا جسيما في صيغة تعريفة ترامب الجمركية
قناة روسيا اليوم منذ 8 ساعات
"لكل جالوت داود".. نائب أمريكي يعلن عزمه تقديم اقتراح لعزل ترامب
قناة روسيا اليوم منذ 18 ساعة
التاريخ المحتمل للضربة الأمريكية-الإسرائيلية على المنشآت النووية الإيرانية
قناة روسيا اليوم منذ 21 ساعة
"CNN": الولايات المتحدة تستعد لشن عملية برية ضد الحوثيين في اليمن
قناة روسيا اليوم منذ 10 ساعات
فوائد جمّة لشرب ماء الزنجبيل.. إليك التفاصيل
قناة العربية منذ 13 ساعة
للحوامل.. التعرض لهذه المادة الكيميائية الشائعة قد يؤثر على نمو دماغ طفلك
سي ان ان بالعربية منذ 4 ساعات