موظفة فى OpenAI تستقيل بسبب مخاوف تتعلق بالسلامة.. اعرف التفاصيل

الخميس، 23 مايو 2024 10:00 م
موظفة فى OpenAI تستقيل بسبب مخاوف تتعلق بالسلامة.. اعرف التفاصيل OpenAI- أرشيفية
كتب محمد أيمن

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

تعانى شركة OpenAI مع الاضطرابات الداخلية، التى شملت استقالة موظفة بسبب مخاوف تتعلق بالسلامة، ويأتي ذلك في أعقاب الخروج الأخير لاثنين من المديرين التنفيذيين البارزين، إيليا سوتسكيفر وجان ليك، اللذين لعبا دورًا مهمًا في قيادة فريق أبحاث السلامة، وفقاً لموقع indiatoday.

وفي سلسلة مفصلة من المنشورات على موقع X (تويتر سابقًا)، أعلنت جريتشن كروجر، باحثة السياسات السابقة في OpenAI، استقالتها من الشركة في 14 مايو، وأشارت كروجر إلى أن قرارها بالمغادرة تم اتخاذه بشكل مستقل وحدث قبل ساعات فقط من قيام سوتسكيفر وليك بالاستقالة.

وبجانب التوقيت، شاركت كروجر في العديد من المخاوف نفسها التي دفعت المديرين التنفيذيين إلى المغادرة.

أوضحت كروجر الحاجة الملحة لإجراء تحسينات في العديد من المجالات الرئيسية داخل OpenAI، وشددت على ضرورة تحسين عمليات صنع القرار، وتعزيز المساءلة، وزيادة الشفافية، وعلاوة على ذلك، دعت إلى توثيق أكثر شمولاً وإنفاذ السياسات بشكل أكثر صرامة، كما سلطت الضوء على أهمية التعامل مع تكنولوجيا OpenAI بعناية أكبر وتنفيذ تدابير للتخفيف من تأثيرها على عدم المساواة وحقوق الإنسان والبيئة.

وقالت: "هذه المخاوف مهمة للناس والمجتمعات الآن، فهي تؤثر على كيفية رسم جوانب المستقبل، ومن سيتولى رسمها، وأود أن أؤكد على أن هذه المخاوف، وكذلك تلك التي يشاركها الآخرون، لا ينبغي إساءة فهمها على أنها ضيقة أو تخمينية أو تأملية، إنهم ليسوا كذلك".

يشير رحيل سوتسكيفر، ولايك، والآن كروجر، إلى تحديات داخلية حرجة تواجه OpenAI، وبينما تسعى المنظمة جاهدة لمعالجة هذه القضايا، تسلط الاستقالات الضوء على الحاجة الملحة للإصلاحات للحفاظ على الاستقرار والثقة والمسؤولية الأخلاقية في تقدمها التكنولوجي.

وأضافت: "إحدى الطرق التي يمكن لشركات التكنولوجيا بشكل عام إضعاف أولئك الذين يسعون لمحاسبتها هي زرع الانقسام بين أولئك الذين يثيرون المخاوف أو يتحدون سلطتهم، أنا أهتم بشدة بمنع ذلك".

كان رحيل لايك أيضًا مدفوعًا بمخاوف عميقة بشأن اتجاه الشركة، وكشف عن الخلافات المستمرة مع قيادة OpenAI حول الأولويات الأساسية للمنظمة، وقال: "نحن بحاجة ماسة إلى معرفة كيفية توجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا"، مشددًا على أهمية التركيز على الأجيال القادمة من نماذج الذكاء الاصطناعي، والأمن، والمراقبة، والتأهب، والسلامة، وقوة الخصومة، والمواءمة، والسرية، والتأثير المجتمعي.










مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة