أعلنت شركة OpenAI، الخميس، إطلاق ميزة جديدة تحمل اسم Trusted Contact أو جهة الاتصال الموثوقة ، تهدف إلى تعزيز إجراءات السلامة في الحالات التي قد تتضمن أفكاراً مرتبطة بإيذاء النفس أو الانتحار أثناء المحادثات مع ChatGPT.
وتتيح الميزة للمستخدمين البالغين اختيار شخص موثوق، مثل أحد أفراد العائلة أو صديق، ليكون جهة تواصل للطوارئ داخل الحساب.
وفي حال رصد النظام مؤشرات على إيذاء النفس خلال المحادثة، سيشجع ChatGPT المستخدم على التواصل مع هذا الشخص، كما سيرسل إشعاراً تلقائياً إلى جهة الاتصال الموثوقة لحثها على الاطمئنان على المستخدم.
وتأتي هذه الخطوة بعد سلسلة دعاوى قضائية واجهتها OpenAI من عائلات أشخاص انتحروا عقب استخدام روبوت الدردشة، حيث اتهمت بعض العائلات ChatGPT بتشجيع أحبائهم على إيذاء أنفسهم أو مساعدتهم في التخطيط لذلك.
وقالت الشركة إنها تعتمد حالياً على مزيج من الأنظمة الآلية والمراجعة البشرية للتعامل مع الحالات الخطرة المحتملة.
وعندما ترصد أنظمة OpenAI عبارات أو مؤشرات مرتبطة بأفكار انتحارية، يتم تحويل التنبيه إلى فريق أمان بشري لمراجعته، مؤكدة أن جميع هذه الحالات تخضع لمراجعة فعلية من قبل موظفين مختصين،.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من صحيفة الغد الأردنية
