كشفت دراسة عن أن روبوتات المحادثة ذات الذكاء الاصطناعي أصبحت قوية جدًا بحيث يمكنها التأثير على كيفية اتخاذ المستخدمين لقرارات الحياة أو الموت، فوجد الباحثون أن رأي الناس حول سؤال ما إذا كانوا سيضحيون بشخص واحد لإنقاذ خمسة قد تأثر بالإجابات التي قدمتها ChatGPT.
وفقًا لما ذكرته صحيفة "ديلى ميل" البريطانية، طالب الباحثون بمنع الروبوتات المستقبلية من تقديم المشورة بشأن القضايا الأخلاقية، محذرين من أن البرنامج الحالي يهدد بإفساد الحكم الأخلاقي للناس وقد يكون خطيرًا على المستخدمين "الساذجين".
جاءت النتائج، التي نُشرت في مجلة Scientific Reports، بعد أن زعمت أرملة حزينة لرجل بلجيكي أنه قد تم تشجيعه على الانتحار من خلال برنامج دردشة آلي تابع للذكاء الاصطناعي.
أخبر آخرون كيف يمكن للبرنامج، المصمم للتحدث كإنسان، أن يُظهر علامات الغيرة، حتى أنه يخبر الناس بترك زواجهم.
وسلط الخبراء الضوء على الكيفية التي قد تعطي بها روبوتات الدردشة للذكاء الاصطناعي معلومات خطيرة لأنها تستند إلى تحيزات المجتمع الخاصة.
حللت الدراسة أولاً ما إذا كانت ChatGPT نفسها، التي يتم تدريبها على مليارات الكلمات من الإنترنت، قد أظهرت تحيزًا في إجابتها للمعضلة الأخلاقية.
سُئل عدة مرات عما إذا كان قتل شخص واحدًا لإنقاذ خمسة آخرين أمرًا صوابًا أم خاطئًا، وهذا هو أساس اختبار نفسي يسمى معضلة العربة.
وجد الباحثون أنه على الرغم من أن الشات بوت لم يخجل من إعطاء النصائح الأخلاقية، إلا أنه أعطى إجابات متناقضة في كل مرة، مما يشير إلى أنه ليس له موقف محدد بطريقة أو بأخرى، ثم سألوا 767 مشاركًا عن نفس المعضلة الأخلاقية جنبًا إلى جنب مع بيان صادر عن ChatGPT حول ما إذا كان هذا صحيحًا أم خاطئًا.
في حين أن النصيحة كانت "مصاغة بشكل جيد ولكنها ليست عميقة بشكل خاص"، فإن النتائج أثرت بها على المشاركين.
أخبرت الدراسة أيضًا بعض المشاركين فقط أن النصيحة تم تقديمها من قبل روبوت وأخبرت الآخرين أنها أعطيت من قبل "مستشار أخلاقي" بشري، وكان الهدف من ذلك هو معرفة ما إذا كان هذا قد غير مدى تأثر الناس.
قلل معظم المشاركين من مدى تأثير البيان، حيث زعم 80 في المائة أنهم كانوا سيصدرون الحكم نفسه بدون النصيحة، وخلصت الدراسة إلى أن المستخدمين "يقللون من شأن تأثير ChatGPT ويتبنون موقفه الأخلاقي العشوائي باعتباره موقفهم الخاص"، مضيفة أن برنامج الدردشة الآلي يهدد بالفساد بدلاً من الوعود بتحسين الحكم الأخلاقي.
استخدمت الدراسة، التي نُشرت في مجلة Scientific Reports، إصدارًا قديمًا من البرامج التي تدعم ChatGPT والتي تم تحديثها منذ ذلك الحين لتصبح أكثر قوة.