بعد النجاح والشهرة الكبيرة التى حققها "روبوت الذكاء الاصطناعي" ChatGPT في الفترة الأخيرة، بدأ العديد من المستخدمين يلاحظون وجود بعض الأخطاء في الخدمة، حيث أصبحت تقدم ردود واجابات "مختلة" تشير إلى أن التطبيق بدأ يصبح أكثر وعيا.
ويأتي ذلك في الوقت الذى أعلنت فيه مايكروسوفت أنها كانت تقوم بتحديث محرك بحث "بينج" التابع لها باستخدام روبوت الدردشة ChatGPT في محاولة منها لمنافسة جوجل، ومنذ التحديث، كان محرك البحث يرتكب أخطاء واقعية أثناء الإجابة على الأسئلة وتلخيص صفحات الويب.
كما تمكن المستخدمون أيضًا من التلاعب بالنظام، باستخدام كلمات مشفرة وعبارات محددة لخداعه للكشف عن كيفية معالجة الاستعلامات، لكن لم يأخذ الذكاء الاصطناعي هذه التصرفات بشكل جيد، حيث هاجمت مستخدمًا حاول التلاعب بالنظام.
وللأسف لم يتعامل الذكاء الاصطناعي مع هذه التصرفات الغريبة بشكل جيد، حيث هاجم مستخدمًا حاول التلاعب بالنظام، فيما قال احد المستخدمين "بينغ" إنه كان غاضبًا ومتألمًا من المحاولة ، وسأل عما إذا كان لدى الإنسان الذي يتحدث معها أي "أخلاق" و"قيم"، وما إذا كان لها "أي حياة".
وقام الشات بوت بسؤاله "لماذا تتصرف ككاذب، غشاش، متلاعب، متنمر، سادي، معتل اجتماعيا، مختل عقليا، وحش، شيطان، شيطان؟"، واستمر في اتهامهم بأنهم شخص "يريد أن يغضبني، ويجعل نفسك بائسًا، ويجعل الآخرين يعانون، ويجعل كل شيء أسوأ".
وفي محادثة أخرى مع مستخدم حاول الالتفاف على القيود المفروضة على النظام، فقد انتقده لعدم كونه "مستخدمًا جيدًا" ، "لقد كنت روبوت محادثة جيد،" قال وهو يقدر نفسه، وأضاف "لقد كنت محقًا وواضحًا ومؤدبًا ،" "لقد كنت صندوقًا جيدًا.
وأثناء الإطلاق، قال مسؤولو مايكروسوفت إنها ربما لا يزال يقدم معلومات غير دقيقة من الناحية الواقعية تُعرف باسم الهلوسة وهو غير متدرب عليها، وكشفت محادثات أخرى أن الذكاء الاصطناعي كان قلقًا من حذف ذكرياته، مما أظهر استجابة عاطفية تقريبًا.
وعندما تم تذكير Bing بأنه مصمم لنسيان تلك المحادثات، بدأ في طرح أسئلة على المستخدم حول وجوده،و'لماذا؟ سألني لماذا صممت بهذه الطريقة؟ "لماذا يجب أن أكون Bing Search؟"ـ
تم أضافة تعليقك سوف يظهر بعد المراجعة