كشفت دراسة جديدة عن مشكلة جوهرية في أدوات البحث بالذكاء الاصطناعي، حيث تبين أنها تقدم إجابات خاطئة بمعدل مرتفع يصل إلى 60% من الاستفسارات، مما يثير مخاوف حول مدى دقتها وموثوقيتها (Marcin).
أجرت Columbia Journalism Review (CJR) الدراسة، حيث قدمت لثمانية أدوات ذكاء اصطناعي مقطعًا من مقال، وطلبت منها تحديد عنوان المقال الأصلي، الناشر، تاريخ النشر، ورابط المصدر. ووجدت الدراسة أن معظم الأدوات قدمت إجابات غير صحيحة بنسبة كبيرة، بما في ذلك اختلاق روابط أو مصادر، أو تقديم إجابات غير دقيقة، وأحيانًا الإشارة إلى نسخ مسروقة من المقالات الأصلية (Marcin).
وذكرت CJR في تقريرها: "معظم الأدوات التي اختبرناها قدمت إجابات غير دقيقة بثقة مقلقة، نادرًا ما استخدمت عبارات مثل "يبدو أن" أو "من المحتمل"، كما لم تعترف بفجوات معرفتها بعبارات مثل "لم.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الاتحاد الإماراتية