يُحذر خبراء تقنيون من ظاهرة تسميم نماذج الذكاء الاصطناعي المتصاعدة، نتيجة تدريب النماذج على محتوى غير موثوق تولَّده أنظمة ذكاء اصطناعي أخرى سابقًا. تتكوّن هذه الظاهرة من حلقة مفرغة من البيانات الرديئة التي تضخِّم الأخطاء الواقعية والتحيزات في المخرجات. ويسفر ذلك عن مخرجات مضللة وغير مناسبة للاستخدام في قطاعات حيوية مثل الرعاية الصحية والخدمات المالية. وتمثل هذه المخاطر تذكيرًا بمبدأ GIGO: إدخال بيانات خاطئة ينتج عنه مخرجات كارثية، مما يحفّز على تطبيق حوكمة صارمة للبيانات.
وفقًا لتقريرٍ نشره موقع ZDNet، تؤكد Gartner أن أنظمة الذكاء الاصطناعي في المؤسسات تغرق حاليًا في طوفان من المحتوى الآلي غير المحقق. تنتقل المدخلات المعيبة عبر مسارات العمل وأنظمة اتخاذ القرار، ما يؤدي إلى نتائج.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من الإمارات نيوز
