أظهر باحثو جامعة كاليفورنيا في لوس أنجلوس أن نموذج الذكاء الاصطناعي GPT-3 يمكنه حل مشاكل التفكير بمستوى مماثل لطلاب الجامعات.
يُظهر البحث الذي أجراه علماء النفس في جامعة كاليفورنيا، لوس أنجلوس (UCLA) أن نموذج لغة الذكاء الاصطناعي GPT-3 يعمل بشكل جيد مع طلاب الجامعات عندما يُطلب منهم حل المشكلات المنطقية التي تظهر عادةً في اختبارات الذكاء و الاختبارات المعيارية مثل اختبار SAT ، ونشرت الدراسة في مجلة Nature Human Behavior.
لكن مؤلفي الدراسة يكتبون أن الدراسة تثير السؤال التالي: هل تحاكي GPT-3 التفكير البشري كمنتج ثانوي لمجموعة بيانات التدريب اللغوي الضخمة الخاصة بها أم أنها تستخدم نوعًا جديدًا من العمليات المعرفية بشكل أساسي؟
بدون الوصول إلى الأعمال الداخلية لـ GPT-3 - التي تحرسها شركة OpenAI، الشركة التي أنشأتها - لا يمكن لعلماء جامعة كاليفورنيا أن يقولوا على وجه اليقين كيف تعمل قدراتها المنطقية، وكتبوا أيضًا أنه على الرغم من أن أداء GPT-3 أفضل بكثير مما توقعوه في بعض مهام التفكير، إلا أن أداة الذكاء الاصطناعي الشائعة لا تزال تفشل بشكل مذهل في مهام أخرى.
قال تايلور ويب، باحث ما بعد الدكتوراه في جامعة كاليفورنيا في لوس أنجلوس والمؤلف الأول للدراسة: "بغض النظر عن مدى إعجاب نتائجنا، من المهم التأكيد على أن هذا النظام به قيود كبيرة، يمكنها القيام بالتفكير التناظري، لكنها لا تستطيع القيام بأشياء يسهل على الناس القيام بها، مثل استخدام الأدوات لحل مهمة جسدية، وعندما قدمنا لها تلك الأنواع من المشاكل - التي يمكن للأطفال حلها بسرعة - كانت الأشياء التي اقترحها غير منطقية "، وفقاً لموقع scitechdaily.
اختبر ويب وزملاؤه قدرة GPT-3 على حل مجموعة من المشكلات المستوحاة من اختبار يُعرف باسم مصفوفات Raven التقدمية، والتي تطلب من الشخص أن يتنبأ بالصورة التالية بترتيب معقد ، لتمكين GPT-3 من "رؤية" الأشكال، وقام Webb بتحويل الصور إلى تنسيق نص يمكن لـ GPT-3 معالجته.
حل نموذج الذكاء الاصطناعي GPT-3 80٪ من المشكلات بشكل صحيح - أعلى بكثير من متوسط درجات الأشخاص الذين تقل أعمارهم عن 60٪، ولكن ضمن نطاق أعلى الدرجات البشرية.
قال الباحثون إن GPT-3 غير قادر على حل المشكلات التي تتطلب فهم المساحة المادية، على سبيل المثال، إذا تم تزويدها بأوصاف لمجموعة من الأدوات، أنبوب من الورق المقوى ومقص وشريط - يمكن استخدامه لنقل كرات من وعاء إلى آخر، فإن GPT-3 يقترح حلولًا غريبةوغير منطقية
يأمل علماء جامعة كاليفورنيا في لوس أنجلوس في استكشاف ما إذا كانت نماذج تعلم اللغة قد بدأت بالفعل إلى "التفكير" مثل البشر أو القيام بشيء مختلف تمامًا يحاكي الفكر البشري.
قال هوليواك: "قد يكون GPT-3 نوعًا من التفكير مثل الإنسان، ولكن من ناحية أخرى ، لم يتعلم الناس من خلال استيعاب الإنترنت بالكامل، لذا فإن طريقة التدريب مختلفة تمامًا، ونود أن نعرف ما إذا كان يفعل ذلك حقًا بالطريقة التي يفعلها الناس، أو ما إذا كان شيئًا جديدًا تمامًا - ذكاء اصطناعي حقيقي - والذي سيكون مدهشًا بحد ذاته ".