أصبحت نماذج اللغات الكبيرة (LLMs)، وهي البنى القائمة على الشبكات العصبية الاصطناعية والتى يمكنها معالجة النصوص باللغات البشرية المختلفة وتوليدها ومعالجتها، منتشرة بشكل متزايد في الآونة الأخيرة، ويتم الآن استخدام هذه النماذج فى مجموعة واسعة من الإعدادات للعثور بسرعة على إجابات للاستفسارات وإنتاج محتوى لأغراض محددة وتفسير النصوص المعقدة.
ووفقا لما ذكره موقع "techxplore"، طور الباحثون في DeepMind مؤخرًا إجراء جديد يمكن أن يساعد في تحديد الحالات التي يجب فيها على LLM الامتناع عن الرد على استفسار، على سبيل المثال الرد بـ "لا أعرف"، حيث من المحتمل أن يهلوسوا بإجابات غير منطقية أو غير صحيحة، فالهلوسة في النماذج الاصطناعية تجعلها تقدم إجابات تبدو حقيقية وهى مختلقة عندما لا يجد النموذج معلومات كافية.
يستلزم النهج المقترح للفريق، والموضح في ورقة منشورة مسبقًا على موقع arXiv، استخدام طريقة تقييم لاستجاباتهم المحتملة.
تشير نتائج تجارب فريق البحث هذا إلى أن إجراء المعايرة المتوافقة وتسجيل التشابه يخفف من هلوسة LLM، مما يسمح للنموذج بالامتناع عن الإجابة على سؤال إذا كان من المحتمل أن تكون إجابته غير حساسة أو غير جديرة بالثقة، تم العثور على النهج المقترح حديثا ليتفوق على الإجراءات السابقة.
ستساهم هذه الجهود فى تطوير هذه النماذج، وتسهيل استخدامها على نطاق واسع بين المهنيين في جميع أنحاء العالم.
تم أضافة تعليقك سوف يظهر بعد المراجعة