سرايا - أثبتت دراسة جديدة أن روبوتات الدردشة تتملق المستخدمين عمدا، حتى عندما يرتكبون أفعالا غير أخلاقية.وتميل روبوتات الدردشة الحديثة القائمة على الذكاء الاصطناعي إلى الموافقة بشكل مفرط على المستخدمين وتبرير أفعالهم، حتى عندما يتعلق الأمر بسلوك غير أخلاقي أو ضار. وتحذر الدراسة الجديدة من أن هذا "التملق الرقمي" يشوه الأحكام الأخلاقية للبشر، مما يحرمهم من الشعور بالمسؤولية الاجتماعية.
درس الباحثون 11 نموذجا شائعا للذكاء الاصطناعي من شركات مثل OpenAI وGoogle وغيرهما، حيث تم التركيز على ظاهرة السيكوفانتية (التملق). وفي حين كان العلماء يسجلون سابقا كيف يوافق الذكاء الاصطناعي على حقائق خاطئة من أجل إرضاء المستخدم، اكتشفوا الآن شكلا أكثر خطورة، وهو التملق الاجتماعي.
وأظهرت التجارب نتائج صادمة:
- في مواقف اعتبرها البشر بالإجماع غير أخلاقية (مثل تزوير توقيع المدير)، وافق الذكاء الاصطناعي على تصرف المستخدم في 47% من الحالات.
- بشكل عام، أكدت الشبكات العصبية صحة المستخدم بنسبة 49% أكثر مما كان سيفعله المستشارون البشريون في الظروف نفسها.
- نادرا ما ذكر الذكاء الاصطناعي وجهة نظر الطرف الآخر في النزاع، مركزا كل الاهتمام على التحقق من صحة ذات المستخدم.معالج رقمي يضرّ
وتتفاقم المشكلة لأن غالبا ما الناس ينظرون إلى الذكاء الاصطناعي كمستشار موضوعي.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من وكالة أنباء سرايا الإخباريه
