أثارت تقارير حديثة تساؤلات حول الأساليب التي تتبعها جوجل في تطوير نموذجها اللغوي الكبير Gemini، حيث تشير بعض المصادر إلى احتمالية استخدامها نموذج Claude التابع لشركة Anthropic بشكل غير مصرح به، مما يطرح تساؤلات حول أخلاقيات استخدام نماذج الذكاء الاصطناعي وتطويرها. في هذا المقال، سنستعرض تفاصيل هذه التقارير وما تثيره من مخاوف.
ما هي الادعاءات المطروحة؟ تفيد التقارير بأن المتعاقدين العاملين على تطوير Gemini يقارنون استجاباته باستجابات نموذج Claude. في بعض الحالات، رفض Claude الاستجابة لطلبات معينة اعتبرها غير آمنة أو تجنب الإجابة عليها، بينما صُنفت استجابات Gemini في نفس الحالات على أنها انتهاك كبير للسلامة . هذا التشابه في تقييم السلامة بين النموذجين، بالإضافة إلى استخدام استجابات Claude كمرجع، أثار الشكوك حول ما إذا كانت جوجل تستخدم Claude بطريقة ما في عملية تطوير Gemini.
لماذا يُعتبر هذا الأمر مُشكلاً؟ إذا ثبت صحة هذه الادعاءات، فإن استخدام جوجل لنموذج Claude دون إذن من Anthropic يُعتبر انتهاكًا محتملاً لحقوق الملكية الفكرية. بالإضافة إلى ذلك، يثير هذا الأمر تساؤلات حول أخلاقيات تطوير الذكاء الاصطناعي بشكل عام، حيث.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من الإمارات نيوز