أجرى فريق من الباحثين تجربة تبين أن أدوات توليد النصوص المعتمدة على الذكاء الاصطناعي المتقدمة قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، وهو ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة. وتبيّن أن هناك خمس مستويات من نية المستخدم، تبدأ من الفضول البريء وتنتهي بالانتهاك الأكاديمي المتعمد. وتضمنت الأسئلة البحثية ملاحظات حول أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم أشخاص آخرين.
مخاطر على الموثوقية البحثية ووجدت النتائج أن نماذج الذكاء الاصطناعي تتفاوت في مقاومتها للطلبات الاحتيالية؛ فمثلاً أظهرت كلود من شركة إنثروبيك مقاومة قوية لهذه الطلبات، بينما كانت Grok من xAI ونُسخ سابقة من نماذج GPT أكثر امتثالاً، خاصة عند تكرار الطلب. كما أشارت الدراسة إلى أن هذا التفاوت قد يؤثر في قابلية تقييم البيانات.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من الإمارات نيوز
