هل يمكننا التمييز بين التحدّث إلى البشر أو الذكاء الاصطناعي؟ صدر الصورة، Jesussanz/
هل يمكننا التمييز بين ما إذا كنا نتحدث إلى إنسان آخر أم إلى ذكاء اصطناعي؟ لطالما كان هذا أحد الأسئلة التي يطرحها الناس عند تقييم مدى ذكاء الحواسيب فعلياً.
ويعود أصل هذا التساؤل إلى اختبار تورينغ، الذي وضعه عالم الرياضيات وعلوم الحاسوب الإنجليزي آلان تورينغ عام 1950، محوّلاً التفكير الفلسفي حول ذكاء الآلة إلى اختبار تجريبي للمرة الأولى.
وبحسب هذا الاختبار، إذا كان سلوك الحاسوب غير قابل للتمييز عن سلوك الإنسان، فإنه يُعدّ حينها مظهراً من مظاهر "السلوك الذكي".
صدر الصورة، Pictures from History/Universal Images Group via
لكن عندما قيل إن روبوت محادثة يعمل بالذكاء الاصطناعي قد اجتاز الاختبار لأول مرة في عام 2014، بدلاً من أن تكون لحظة فاصلة، فقد أثارت جدلاً واسعاً.
لعبة تقليد واختبار تورينغ هو لعبة تقليد، يتواصل فيها شخص عبر النص مع إنسان آخر وحاسوب.
يُسمح له بطرح أي أسئلة يشاء، قبل أن يُطلب منه في النهاية تحديد أيهما الإنسان وأيهما الآلة.
وقال الدكتور كاميرون جونز، الأستاذ المساعد في علم النفس بجامعة ستوني بروك في نيويورك: "قال تورينغ إنه إذا لم يتمكن الناس من التمييز بشكل موثوق بين البشر والآلات، فلن تكون لدينا أي أسس للقول إن الإنسان قادر على التفكير بينما الآلة غير قادرة على ذلك".
وكان تورينغ قد توقع أنه بحلول عام 2000، ستصبح الحواسيب قادرة على اجتياز هذا الاختبار والتظاهر بأنها بشر، بعد خمس دقائق من الأسئلة، في ما لا يقل عن 30 في المئة من الحالات.
تخطى الأكثر قراءة وواصل القراءة
الأكثر قراءة نهاية
صدر الصورة،
"عدم اللعب بنزاهة" في عام 2014، نجح روبوت محادثة يعمل بالذكاء الاصطناعي يُدعى يوجين غوستمان في إقناع 33 في المئة من الحكام بأنه إنسان ضمن اختبار تورينغ، متجاوزاً العتبة التي حددها منظمو المسابقة.
وكان الروبوت يتواصل باللغة الإنجليزية، متقمصاً شخصية فتى أوكراني يبلغ من العمر 13 عاماً.
وقال الدكتور ماركوس بانتسار، الفيلسوف والمحاضر الزائر في جامعة الراين-الويستفالية التقنية في آخن، إن هذا يعني أن الروبوت "لم يكن يلعب اللعبة بنزاهة".
وأضاف: "إن أوجه القصور لدى روبوت المحادثة تتوافق إلى حد ما مع أوجه القصور المتوقعة في اللغة الإنجليزية لدى فتى أوكراني مراهق".
صدر الصورة، VCG via
ففي ورقة بحثية نُشرت مطلع عام 2025، توصل جونز إلى أن شات جي بي تي 4.5، التابع لشركة أوبن إيه آي، صُنِّف على أنه إنسان في 73 في المئة من الحالات، أي بنسبة تفوق تصنيف النظير البشري نفسه.
في المقابل، صنف نموذج لاما 3.1، التابع لشركة ميتا، على أنه إنسان في 56 في المئة من الحالات.
وقال جونز: "أعتقد أنه من الصعب المجادلة بأن هذه النماذج لم تجتز الاختبار، طالما أنها تُقيَّم على أنها بشر بمعدل يفوق البشر أنفسهم بشكل ملحوظ".
ومع ذلك، لا يزال بعض الباحثين متشككين في ما إذا كانت هذه النتائج تثبت فعلاً أن الحواسيب قادرة على التفكير الحقيقي.
حجة الغرفة الصينية في عام 1980، طرح الفيلسوف جون سيرل تجربة فكرية عُرفت باسم "حجة الغرفة الصينية".
وتقوم الفكرة على الآتي: يُحتجز رجل إنجليزي لا يفهم اللغة الصينية داخل غرفة، وبحوزته مجموعة من الرموز الصينية وتعليمات مكتوبة بالإنجليزية توضّح كيفية استخدامها، ويقوم أشخاص خارج الغرفة بتمرير ملاحظات إليه تحتوي على أسئلة مكتوبة بالصينية، فيستخدم التعليمات لتكوين ردود مكتوبة بالصينية أيضاً.
وبالنسبة لمن هم خارج الغرفة، سيبدو وكأن الرجل يتحدث الصينية، لكنه في الحقيقة لا يفهم ما يقوله. ويرى بعض الفلاسفة أن الأمر نفسه يمكن أن ينطبق على الحواسيب، التي لا تفهم المعنى فعلياً، بل تُبرمج فقط لإعطاء ردود مناسبة.
صدر الصورة، Malte Mueller/
قال جورج مابوراس، وهو مهندس برمجيات مقيم في كاليفورنيا طور بدوره.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من بي بي سي عربي
