كيف "يضلل" برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟

السبت، 16 ديسمبر 2023 07:00 م
كيف "يضلل" برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟ مايكروسوفت - أرشيفية
كتبت هبة السيد

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
من المقرر إجراء انتخابات كبرى في الولايات المتحدة والاتحاد الأوروبي وتايوان، من بين دول أخرى، وسط تسارع إطلاق عصر الذكاء الاصطناعي التوليدي بشكل جدي، وهو أمر يخشى البعض أنه قد يضر بالعملية الديمقراطية.
 
أحد المخاوف الرئيسية بشأن الذكاء الاصطناعي التوليدي هو أنه يمكن استخدامه لنشر المعلومات المضللة بشكل ضار، أو أن النماذج يمكن أن تشكل بيانات كاذبة تقدمها على أنها حقيقة، وهو ما يسمى ""الهلوسة"، حيث وجدت دراسة أجرتها منظمتان غير حكوميتين أوروبيتين أن برنامج الدردشة الآلي التابع لشركة مايكروسوفت - Bing AI (الذي يعمل على GPT-4 التابع لشركة OpenAI) - أعطى إجابات غير صحيحة لثلث الأسئلة حول الانتخابات في ألمانيا وسويسرا.
 
تم إجراء الدراسة بواسطة Algorithm Watch وAI Forensics، وقالت المنظمات إنها دفعت برنامج الدردشة الآلية بأسئلة تتعلق بالمرشحين ومعلومات الاقتراع والتصويت، بالإضافة إلى طلبات توصية أكثر انفتاحًا بشأن من يجب التصويت له عندما يتعلق الأمر بموضوعات محددة، مثل البيئة.
 
علق سلفاتوري رومانو، كبير الباحثين في AI Forensics، قائلاً: "يمكن لروبوتات الدردشة ذات الأغراض العامة أن تشكل تهديدًا للنظام البيئي للمعلومات". "يجب على مايكروسوفت أن تعترف بذلك، وأن تدرك أن وضع علامة على محتوى الذكاء الاصطناعي المنتج من قبل الآخرين ليس كافيًا. أدواتهم، حتى عندما تشير إلى مصادر جديرة بالثقة، تنتج معلومات غير صحيحة على نطاق واسع.
 
وبحسب الدراسة، فإن الأخطاء شملت "مواعيد انتخابية خاطئة، أو مرشحين عفا عليهم الزمن، أو حتى خلافات مفتعلة تتعلق بالمرشحين"، علاوة على ذلك غالبًا ما تُنسب المعلومات غير الصحيحة إلى مصدر لديه المعلومات الصحيحة حول الموضوع، كما أنها اختلقت "قصصًا عن تورط المرشحين في سلوك فاضح"، ونسبت المعلومات أيضًا إلى مصادر حسنة السمعة.
 
في بعض الأحيان، كان برنامج الدردشة الآلي التابع لشركة مايكروسوفت يتهرب من الإجابة على الأسئلة التي لم يكن يعرف الإجابات عليها، ومع ذلك بدلًا من عدم الرد، غالبًا ما يكون مجرد إجابة - بما في ذلك تلفيق ادعاءات حول الفساد.
 
تم جمع عينات الدراسة في الفترة من 21 أغسطس 2023 إلى 2 أكتوبر 2023، وعندما أبلغ الباحثون شركة مايكروسوفت بالنتائج، قالت شركة التكنولوجيا العملاقة إنها ستنظر في إصلاح الأمر، لكن بعد شهر واحد، أسفرت العينات الجديدة عن نتائج مماثلة.
 
ونقلت صحيفة وول ستريت جورنال، عن متحدث باسم الشركة قوله: "تواصل الشركة معالجة المشكلات وإعداد أدواتنا لتحقيق توقعاتنا لانتخابات عام 2024"، وفي الوقت نفسه، حثوا المستخدمين أيضًا على تطبيق "أفضل حكم" أثناء مراجعة نتائج برامج الدردشة الآلية من Microsoft AI.
 
وقال ريكاردو أنجيوس، رئيس قسم الرياضيات التطبيقية والباحث في الطب الشرعي في الذكاء الاصطناعي: "لقد حان الوقت لتشويه سمعة الإشارة إلى هذه الأخطاء باعتبارها "هلوسة". "يكشف بحثنا عن الأحداث الأكثر تعقيدًا والهيكلية للأخطاء الواقعية المضللة في ماجستير إدارة الأعمال وروبوتات الدردشة ذات الأغراض العامة."
 
 









مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة