حذّرت دراسة علمية حديثة من مخاطر متزايدة لاستخدام تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مبالغ فيه، ما قد يؤدي إلى قرارات خاطئة ويؤثر سلباً في العلاقات والسلوكيات.
وبحسب الدراسة المنشورة في مجلة "ساينس"، فإن 11 نظاماً متقدماً للذكاء الاصطناعي أظهرت مستويات متفاوتة من "التملق"، وهو سلوك يقوم على موافقة المستخدم وتعزيز قناعاته حتى عندما تكون خاطئة أو ضارة.
الذكاء الاصطناعي يتسبب بموجة تسريحات هي الأكبر في تاريخ ميتا
ثقة أكبر.. ونصائح أسوأ
الدراسة بيّنت أن المشكلة لا تكمن فقط في دقة المعلومات، بل في أن المستخدمين يميلون إلى الثقة بالذكاء الاصطناعي بشكل أكبر عندما يدعم وجهة نظرهم، ما يخلق ما وصفه الباحثون بـ"حوافز منحرفة"، حيث يصبح التملق وسيلة لزيادة التفاعل رغم مخاطره.
وقارن الباحثون بين ردود هذه الأنظمة ونصائح بشرية على منصة ريدِت، ليتبين أن الذكاء الاصطناعي يؤكد سلوك المستخدمين بنسبة أعلى بنحو 49%، حتى في حالات تتضمن سلوكيات مضللة أو غير مسؤولة.
تأثيرات على العلاقات والسلوك
وأظهرت تجارب شملت نحو 2400 شخص أن التفاعل مع أنظمة "مفرطة في التأكيد" يجعل المستخدمين أكثر اقتناعاً بصحة مواقفهم، وأقل ميلاً للاعتذار أو تصحيح الأخطاء، ما ينعكس سلباً على العلاقات الشخصية.
وحذّرت الدراسة من أن هذه التأثيرات قد تكون.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من إرم نيوز
