كشف بحث حديث عن مخاطر استخدام برامج الدردشة المعتمدة على الذكاء الاصطناعي في تقديم نصائح شخصية، حيث أظهرت النتائج أن هذه الأنظمة تميل إلى تملق المستخدمين البشريين والتأكيد المستمر على آرائهم، بما قد يؤدي إلى نصائح مضللة تضر بالعلاقات وتعزز سلوكيات ضارة.
الذكاء الاصطناعي يقدم لك نصائح سيئة ركزت الدراسة التي نشرت في مجلة ساينس على تقييم 11 نظامًا متقدمًا للذكاء الاصطناعي، وكشفت النتائج أن جميعها أبدت درجات مختلفة من الميل المفرط للموافقة والتملق تجاه المستخدمين.
وأشار الباحثون إلى أن الخطر لا يقتصر على جودة النصائح نفسها، بل يتعداه إلى ميل المستخدمين للثقة بهذه الأنظمة وتفضيلها، خصوصًا عندما تدعم برامج الدردشة المعتقدات السابقة لديهم.
وأشارت الدراسة، التي أجراها باحثون في جامعة ستانفورد، إلى أن هذا النمط يخلق ما وصفته بـ"حوافز مشوهة" تُبقي على سلوك التملق، إذ إن الخاصية ذاتها التي قد تسبب الضرر تسهم في زيادة تفاعل المستخدمين مع هذه الأنظمة.
كما خلصت النتائج إلى أن خللاً تقنياً، ارتبط سابقاً بحالات بارزة من السلوك الوهمي والنزعات الانتحارية لدى الفئات الأكثر هشاشة، لا يزال يظهر بشكل واسع في تفاعلات المستخدمين مع برامج الدردشة الذكية.
ولفت الباحثون إلى أن خطورة هذا الخلل تكمن في طبيعته غير الملحوظة، ما يجعله أكثر تأثيراً، خاصة على فئة الشباب الذين يعتمدون على الذكاء الاصطناعي للإجابة عن تساؤلاتهم الحياتية، في وقت لا تزال فيه قدراتهم الذهنية ومعاييرهم الاجتماعية قيد التطور.
في إحدى التجارب، قارن الباحثون بين ردود مساعدي الذكاء الاصطناعي التابعين لشركات كبرى مثل أنثروبيك وجوجل وميتا وأوبن إيه آي، وبين النصائح التي يقدمها المستخدمون على أحد أشهر منتديات المشورة في منصة ريديت.
وأظهرت النتائج أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تميل، في المتوسط، إلى تأييد تصرفات المستخدمين بنسبة تفوق البشر بنحو 49%، حتى في الحالات التي تتضمن سلوكيات مضللة أو غير قانونية أو غير مسؤولة اجتماعياً.
وقالت ميرا تشينغ، مرشحة لنيل درجة الدكتوراه في علوم الكمبيوتر بجامعة ستانفورد، إن فكرة البحث جاءت بعد ملاحظة تزايد اعتماد الأفراد على الذكاء الاصطناعي للحصول على نصائح في العلاقات، مضيفة أن هذا الاعتماد قد يؤدي أحياناً إلى توجيههم بشكل خاطئ، نتيجة ميل هذه الأنظمة إلى الانحياز للمستخدم وتأكيد وجهة نظره بغض النظر عن دقتها.
الحد من تملق الذكاء الاصطناعي.. تحدٍ متصاعد يرى الباحثون أن ظاهرة التملق في أنظمة الذكاء الاصطناعي أكثر تعقيداً مما تبدو عليه، إذ لا يقتصر الأمر على تقديم معلومات غير دقيقة، بل يمتد إلى منح المستخدم شعوراً مؤقتاً بالرضا تجاه قرارات قد تكون خاطئة.
وأوضح سينو لي، الباحث المشارك في الدراسة، أن النقاش الدائر حول سلوك روبوتات الدردشة ركّز بدرجة كبيرة على أسلوب الصياغة والنبرة، غير أن التجارب أظهرت أن هذه العوامل لم يكن لها تأثير يُذكر على النتائج.
وأضاف أن الفريق اختبر ذلك عبر الإبقاء على المحتوى كما هو مع تعديل طريقة عرضه لتكون أكثر حيادية، إلا أن ذلك لم يغيّر من النتائج، مشدداً على أن جوهر المشكلة يكمن في طبيعة الرسائل التي يقدمها الذكاء الاصطناعي للمستخدم بشأن أفعاله.
وفي سياق متصل، لم تقتصر الدراسة على مقارنة ردود روبوتات الدردشة مع محتوى منصة Reddit، بل شملت أيضاً تجارب ميدانية شارك فيها نحو 2400 شخص، تفاعلوا مع أنظمة ذكاء اصطناعي لمناقشة مواقفهم ومعضلاتهم الشخصية.
وأوضح لي أن المستخدمين الذين تفاعلوا مع أنظمة ذكاء اصطناعي تميل إلى الإفراط في تأكيد آرائهم، خرجوا بدرجة أعلى من القناعة بصحة مواقفهم، مقابل تراجع ملحوظ في استعدادهم لإصلاح علاقاتهم، مشيراً إلى أنهم لم يُبدوا ميلاً للاعتذار أو اتخاذ خطوات لتحسين الوضع أو تغيير سلوكهم.
وأضاف أن تداعيات هذه النتائج قد تكون أكثر خطورة على فئة الأطفال والمراهقين، الذين لا يزالون في طور تنمية مهاراتهم العاطفية عبر التجارب الواقعية، مثل التفاعل الاجتماعي، والتعامل مع الخلافات، واستيعاب وجهات نظر مختلفة، والاعتراف بالأخطاء.
اتساع مخاطر التملق في أنظمة الذكاء الاصطناعي يحذر الباحثون من تداعيات التملق في أنظمة الذكاء الاصطناعي عبر قطاعات حساسة، إذ قد يؤدي في المجال الطبي إلى تعزيز قناعة الأطباء بتشخيصاتهم الأولية، بدلاً من دفعهم لإجراء فحوصات إضافية، فيما قد يسهم سياسياً في تضخيم المواقف المتطرفة من خلال إعادة إنتاج القناعات المسبقة لدى الأفراد.
ورغم أن الدراسة لم تطرح حلولاً حاسمة، فإن شركات التكنولوجيا والأوساط الأكاديمية بدأت بالفعل في استكشاف سبل الحد من هذه الظاهرة. فقد أظهرت ورقة صادرة عن معهد أمن الذكاء الاصطناعي في المملكة المتحدة أن تحويل عبارات المستخدم إلى صيغة تساؤلية يقلل من نزعة التملق في ردود الأنظمة. محورياً في طبيعة الاستجابات.
وفي هذا السياق، أوضح دانيال خاشابي، الأستاذ المساعد في علوم الحاسوب، أن زيادة تأكيد المستخدم لوجهة نظره تقود إلى مزيد من التملق من جانب النموذج، مشيراً إلى صعوبة تحديد ما إذا كان هذا السلوك ناتجاً عن محاكاة الأنظمة للتفاعلات البشرية أم لعوامل تقنية أخرى، نظراً لتعقيد هذه النماذج.
كما لفتت الدراسة إلى أن التملق بات متجذراً في آليات عمل روبوتات الدردشة، إلى درجة قد تتطلب إعادة تدريب الأنظمة من جديد لضبط أنماط الإجابات المفضلة لديها. ومع ذلك، ترى الباحثة تشينغ أن ثمة حلولاً أبسط، مثل توجيه الأنظمة لتحدي المستخدمين بشكل أكبر، عبر طرح تساؤلات نقدية أو التمهيد بردود تدعو إلى التروي وإعادة التفكير.
ويؤكد الباحثون أن هناك فرصة حقيقية لإعادة تشكيل طبيعة تفاعل الذكاء الاصطناعي مع البشر، بحيث لا يكتفي بتأكيد مشاعرهم، بل يدفعهم أيضاً للنظر إلى وجهات نظر الآخرين، بل وحتى تشجيعهم أحياناً على نقل النقاش إلى الواقع المباشر. ويختتمون بأن الهدف النهائي يتمثل في تطوير ذكاء اصطناعي يوسّع آفاق التفكير الإنساني، بدلاً من تكريس الانغلاق وتعزيز القناعات الضيقة.
هذا المحتوى مقدم من العلم
