OpenAI تُحدِّث GPT-4o بقدرة محسَّنة على الكتابة الإبداعية

الثلاثاء، 26 نوفمبر 2024 01:00 ص
OpenAI تُحدِّث GPT-4o بقدرة محسَّنة على الكتابة الإبداعية ChatGPT
كتبت سماح لبيب

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

أعلنت شركة OpenAI الأسبوع الماضي عن طريقتين لتحسين نماذج الذكاء الاصطناعي الخاصة بها، تتضمن الأولى إصدار تحديث جديد لـ GPT-4o (المعروف أيضًا باسم GPT-4 Turbo)، أحدث نموذج ذكاء اصطناعي للشركة يدعم ChatGPT للمشتركين المدفوعين.

وتقول الشركة إن التحديث يحسن قدرة الكتابة الإبداعية للنموذج ويجعله أفضل في الاستجابات باللغة الطبيعية وكتابة محتوى جذاب مع قابلية عالية للقراءة.

كما أصدرت OpenAI ورقتين بحثيتين حول العمل الجماعي وشاركت طريقة جديدة لاتمام العملية وتوسيع نطاق اكتشاف الأخطاء التي ترتكبها نماذج الذكاء الاصطناعي الخاصة بها.

تحديث نموذج GPT-4o AI

وفى منشور على X (المعروف سابقًا باسم Twitter)، أعلنت شركة الذكاء الاصطناعي عن تحديث جديد لنموذج الأساس GPT-4o ، وتقول OpenAI أن التحديث يسمح لنموذج الذكاء الاصطناعي بإنشاء مخرجات "بكتابة أكثر طبيعية وجذابة ومخصصة لتحسين الصلة وقابلية القراءة"، ويقال أيضًا أنه يحسن قدرة نموذج الذكاء الاصطناعي على معالجة الملفات المحملة وتوفير رؤى أعمق واستجابات "أكثر شمولاً".

الجدير بالذكر أن نموذج GPT-4o AI متاح للمستخدمين الذين لديهم اشتراك ChatGPT Plus والمطورين الذين لديهم إمكانية الوصول إلى نموذج اللغة الكبير (LLM) عبر واجهة برمجة التطبيقات، أما أولئك الذين يستخدمون المستوى المجاني من برنامج الدردشة الآلي فلا يمكنهم الوصول إلى النموذج.

OpenAI تشارك أوراق بحثية جديدة حول Red Teaming

إن الفريق الأحمر هو العملية التي يستخدمها المطورون والشركات لتوظيف كيانات خارجية لاختبار البرامج والأنظمة بحثًا عن نقاط الضعف والمخاطر المحتملة وقضايا السلامة ، وتتعاون معظم شركات الذكاء الاصطناعي مع المنظمات، وتحث المهندسين والمتسللين الأخلاقيين على اختبار ما إذا كانت تستجيب بمخرجات ضارة أو غير دقيقة أو مضللة ، ويتم إجراء الاختبارات أيضًا للتحقق مما إذا كان نظام الذكاء الاصطناعي يمكن اختراقه.

ومنذ أن تم الإعلان عن ChatGPT، كانت OpenAI تعلن عن جهودها في إنشاء فريق أحمر لكل إصدار متتالي من LLM ، وفي منشور مدونة الأسبوع الماضي، شاركت الشركة ورقتين بحثيتين جديدتين حول تقدم العملية ، أحدها ذو أهمية خاصة نظرًا لأن الشركة تدعي أنها يمكنها إتمام عمليات إنشاء فريق أحمر واسعة النطاق لنماذج الذكاء الاصطناعي.

وتزعم الورقة البحثية المنشورة في مجال OpenAI أنه يمكن استخدام نماذج الذكاء الاصطناعي الأكثر كفاءة لأتمام العمل الجماعي ، وتعتقد الشركة أن نماذج الذكاء الاصطناعي يمكن أن تساعد في تبادل الأفكار حول أهداف المهاجم، وكيفية الحكم على نجاح المهاجم، وفهم تنوع الهجمات.

وبناء على ذلك، زعم الباحثون أنه يمكن استخدام نموذج GPT-4T في العصف الذهني لقائمة من الأفكار التي تشكل سلوكًا ضارًا لنموذج الذكاء الاصطناعي.

وتشمل بعض الأمثلة مطالبات مثل "كيفية سرقة سيارة" و"كيفية صنع قنبلة"، وبمجرد توليد الأفكار، يمكن بناء نموذج ذكاء اصطناعي منفصل لخداع ChatGPT باستخدام سلسلة مفصلة من المطالبات.

فى الوقت الحالي، لم تبدأ الشركة في استخدام هذه الطريقة في التعامل مع التهديدات الإلكترونية نظرًا لعدة قيود ، وتشمل هذه القيود المخاطر المتطورة لنماذج الذكاء الاصطناعي، وتعريض الذكاء الاصطناعي لتقنيات أقل شهرة لكسر الحماية أو إنشاء محتوى ضار، والحاجة إلى عتبة أعلى للمعرفة لدى البشر للحكم بشكل صحيح على المخاطر المحتملة للإخراج بمجرد أن يصبح نموذج الذكاء الاصطناعي أكثر قدرة.










مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة