سرايا - حذّر خبراء من الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات صحية وطبية، مؤكدين أنها قد تقدّم إجابات غير دقيقة أو مضللة.
وأوضحت دراسة حديثة أن هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بـ"الهلوسة"، وهي ظاهرة تؤدي إلى إنتاج معلومات خاطئة أو غير مكتملة، رغم عرضها بأسلوب يبدو موثوقا.
وفي دراسة شملت 50 سؤالا طبيا، تبيّن أن نحو نصف الإجابات التي قدمتها روبوتات الدردشة كانت "إشكالية". وأظهرت النتائج أن نسبة الأخطاء كانت الأعلى لدى Grok (58%)، يليه ChatGPT (52%)، ثم Meta AI (50%).
وأشار الباحثون إلى أن سبب هذه الأخطاء يعود إلى اعتماد هذه النماذج على بيانات تدريب قد تكون منحازة أو غير مكتملة، إضافة إلى ميلها أحيانا إلى ما يُعرف بـ"المجاملة"، أي تقديم إجابات تتوافق مع معتقدات المستخدم بدلا من الالتزام بالدقة العلمية.
كما لفتوا إلى أن هذه الأنظمة غير مرخّصة لتقديم المشورة الطبية، ولا تملك دائما وصولا إلى أحدث المعلومات، ما يجعل استخدامها في هذا المجال محفوفا بالمخاطر دون إشراف متخصص.
واعتمدت الدراسة على طرح.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من وكالة أنباء سرايا الإخباريه
