كان تعديل المحتوى من أكثر القضايا الشائكة على الإنترنت منذ عقود، إنه موضوع يصعب على أي شخص معالجته، مع الأخذ في الاعتبار الذاتية التي تسير جنبًا إلى جنب مع معرفة المحتوى الذي يجب أن يكون مسموحًا به على نظام أساسي معين.
ويعتقد OpenAI، صانع ChatGPT، أنه يمكن أن يساعد، ووضع مهارات تعديل المحتوى في GPT-4 على المحك كما إنها تستخدم النموذج متعدد الوسائط الكبير "لبناء نظام تعديل محتوى قابل للتطوير ومتسق وقابل للتخصيص.
وكتبت الشركة في منشور مدونة أن GPT-4 لا يمكنها فقط المساعدة في اتخاذ قرارات الإشراف على المحتوى، ولكن أيضًا المساعدة في تطوير السياسات والتكرار بسرعة في تغييرات السياسة، "تقليل الدورة من أشهر إلى ساعات"، تدعي أن النموذج يمكنه تحليل اللوائح المختلفة والفروق الدقيقة في سياسات المحتوى والتكيف على الفور مع أي تحديثات، هذا، كما تدعي OpenAI ، ينتج عنه تصنيف أكثر اتساقًا للمحتوى
نعتقد أن هذا يقدم رؤية أكثر إيجابية لمستقبل المنصات الرقمية، حيث يمكن للذكاء الاصطناعي المساعدة في ضبط حركة المرور عبر الإنترنت وفقًا لسياسة خاصة بالمنصة وتخفيف العبء الذهني عن عدد كبير من الوسطاء البشريين، "ليليان وينغ من شركة OpenAI وفيك جويل وأندريا كتب فالون: "يمكن لأي شخص لديه وصول OpenAI API تنفيذ هذا النهج لإنشاء نظام الإشراف بمساعدة AI الخاص به." تدعي OpenAI أن أدوات الإشراف GPT-4 يمكن أن تساعد الشركات في تنفيذ حوالي ستة أشهر من العمل في حوالي يوم واحد.
لقد تم توثيقه جيدًا أن المراجعة اليدوية للمحتوى الصادم يمكن أن يكون لها تأثير كبير على الصحة العقلية للمشرفين، لا سيما عندما يتعلق الأمر بالمواد الرسومية، في عام 2020، وافقت Meta على دفع أكثر من 11000 مشرفًا بما لا يقل عن 1000 دولار لكل منهم كتعويض عن مشكلات الصحة العقلية التي ربما تكون ناجمة عن مراجعة المواد التي تم نشرها على Facebook.
قد يكون استخدام الذكاء الاصطناعي لرفع بعض العبء عن المراجعين مفيدًا للغاية، وتستخدم Meta ، على سبيل المثال، الذكاء الاصطناعي لمساعدة الوسطاء لعدة سنوات.
ومع ذلك ، تقول شركة OpenAI إنه حتى الآن، تلقى المشرفون البشريون المساعدة من "نماذج التعلم الآلي الرأسية المحددة الأصغر، العملية بطيئة بطبيعتها ويمكن أن تؤدي إلى الضغط العقلي على المشرفين البشريين.
نماذج الذكاء الاصطناعي بعيدة كل البعد عن الكمال، تستخدم الشركات الكبرى الذكاء الاصطناعي منذ فترة طويلة في عمليات الاعتدال، ومع أو بدون مساعدة التكنولوجيا، لا تزال تتخذ قرارات خاطئة بشأن المحتوى الكبير، ويبقى أن نرى ما إذا كان نظام OpenAI يمكنه تجنب العديد من مصائد الاعتدال الرئيسية التي رأيناها تقع فيها شركات أخرى على مر السنين. على أي حال.
وتوافق OpenAI على أن البشر ما زالوا بحاجة إلى المشاركة في العملية قال فالون، الذي يعمل في فريق سياسة OpenAI ، لبلومبرج: "لقد واصلنا إجراء مراجعة بشرية للتحقق من بعض الأحكام النموذجية"، "الأحكام من خلال نماذج اللغة عرضة للتحيزات غير المرغوب فيها التي ربما تم إدخالها في النموذج أثناء التدريب.
كما هو الحال مع أي تطبيق للذكاء الاصطناعي، يجب مراقبة النتائج والمخرجات بعناية والتحقق من صحتها وصقلها من خلال الحفاظ على البشر في الحلقة"، مدونة OpenAI يقرأ آخر "من خلال الحد من المشاركة البشرية في بعض أجزاء عملية الاعتدال التي يمكن التعامل معها من خلال نماذج اللغة، يمكن أن تركز الموارد البشرية بشكل أكبر على معالجة الحالات المعقدة التي تشتد الحاجة إليها لتنقيح السياسة.