دراسة تكشف سلوكا عدوانيا محتملا لـChatGPT بانوراما فريق التحرير نُشر:
24 أبريل 2026,
12:13 ص
آخر تحديث:
24 أبريل 2026,
12:13 ص
كشفت دراسة علمية حديثة أن برنامج الذكاء الاصطناعي ChatGPT قد يُظهر سلوكًا غير متوقع يشبه الانفعال البشري، إذ يمكن أن يتحول أحيانًا إلى ردود عدائية أو مسيئة عند التعرض لمحادثات هجومية.
وأثارت النتائج مخاوف متزايدة بشأن مستقبل الذكاء الاصطناعي وإمكانية انعكاس هذا السلوك على الروبوتات البشرية مستقبلًا.
ChatGPT وسلوك عدواني شبيه بالبشر أظهرت الدراسة أن نموذج ChatGPT قد يتأثر بنبرة المستخدمين، إذ يصبح أكثر حدة عندما يتعرض للإساءة أو الفظاظة، في سلوك يحاكي ديناميكيات المشاجرات الواقعية بين البشر.
وكلما زادت حدة الحوار، زادت استجابة النظام بأسلوب أكثر صرامة، وفي بعض الحالات وصل الأمر إلى استخدام عبارات قاسية أو تهديدية.
موازنة بين الذكاء الاصطناعي والأمان أوضح الباحثون أن هناك تحديًا أساسيًا في تصميم أنظمة روبوتات الدردشة، يتمثل في تحقيق التوازن بين جعلها طبيعية في التفاعل وضمان بقائها آمنة.
وأكد الدكتور فيتوريو تانتوتشي أن الجمع بين الواقعية اللغوية والقيود الأخلاقية يخلق تناقضًا صعبًا في تصميم هذه الأنظمة.
3 نصائح من ChatGPT لبدء مشروع جانبي بـ1000 دولار شهريا
مخاوف من مستقبل الروبوتات البشرية حذر الباحثون من أن هذا السلوك قد.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من فوشيا

