عدم المساواة والمعلومات المضللة أبرز مخاطر الذكاء الاصطناعى ومطالب بالحماية

الخميس، 06 يونيو 2024 09:00 ص
عدم المساواة والمعلومات المضللة أبرز مخاطر الذكاء الاصطناعى ومطالب بالحماية OpenAI
كتبت سماح لبيب

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

حذر العديد من موظفى OpenAI السابقين في رسالة مفتوحة من أن شركات الذكاء الاصطناعي المتقدمة مثل OpenAI تخنق النقد والرقابة، خاصة مع تزايد المخاوف بشأن سلامة الذكاء الاصطناعي في الأشهر القليلة الماضية. 

 

وتقول الرسالة المفتوحة، التي وقعها 13 موظفًا سابقًا في OpenAI (ستة منهم اختاروا عدم الكشف عن هويتهم) وأيدها "عراب الذكاء الاصطناعي" جيفري هينتون، الذي كان يعمل سابقًا في شركة جوجل، إنه في غياب أي رقابة حكومية فعالة، يجب على شركات الذكاء الاصطناعي الالتزام بما يلي: مبادئ النقد المفتوح ، وتشمل هذه المبادئ تجنب إنشاء وتنفيذ شروط عدم الانتقاص، وتسهيل عملية مجهولة "يمكن التحقق منها" للإبلاغ عن المشكلات، والسماح للموظفين الحاليين والسابقين بإثارة المخاوف للجمهور، وعدم الانتقام من المبلغين عن المخالفات. 

 

وتقول الرسالة إنه بينما يؤمنون بإمكانية الذكاء الاصطناعي في إفادة المجتمع، فإنهم يرون أيضًا مخاطر، مثل ترسيخ عدم المساواة، والتلاعب والمعلومات المضللة، وإمكانية انقراض الإنسان.

 

في حين أن هناك مخاوف مهمة بشأن الآلة التي يمكن أن تسيطر على الكوكب، فإن الذكاء الاصطناعي التوليدي اليوم يواجه المزيد من المشاكل الواقعية، مثل انتهاكات حقوق الطبع والنشر ، والمشاركة غير المقصودة للصور الإشكالية وغير القانونية، والمخاوف من أنه يمكن أن يقلد أشكال الناس وأشكالهم و تضليل الجمهور. 

 

ويزعم الموقعون على الرسالة أن الحماية الحالية للمبلغين عن المخالفات "غير كافية" لأنها تركز على النشاط غير القانوني بدلاً من المخاوف التي كما يقولون غير منظمة في معظمها، وتنص وزارة العمل على أن العمال الذين يبلغون عن انتهاكات الأجور والتمييز والسلامة والاحتيال وحجب الإجازات محميون بموجب قوانين حماية المبلغين عن المخالفات، مما يعني أنه لا يمكن لأصحاب العمل فصل المبلغين عن المخالفات أو تسريحهم أو تقليل ساعات عملهم أو خفض رتبتهم ، البعض منا يخشى بشكل معقول أشكالا مختلفة من الانتقام، نظرا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة،  وجاء في الرسالة: "لسنا أول من واجه هذه القضايا أو تحدث عنها". 

 

وتعرضت شركات الذكاء الاصطناعي، وخاصة OpenAI، لانتقادات بسبب عدم كفاية الرقابة على السلامة، ودافعت شركة جوجل عن استخدامها لنظرات عامة على الذكاء الاصطناعي في البحث حتى بعد أن ادعى الناس أنها كانت تعطيهم نتائج خطيرة، وإن كانت مضحكة.

 

وتعرضت مايكروسوفت أيضًا لانتقادات شديدة بسبب برنامج Copilot Designer ، الذي كان ينتج صورًا جنسية لنساء في لوحات عنيفة".

 

وفي الآونة الأخيرة، استقال العديد من الباحثين في شركة OpenAI بعد أن قامت الشركة بحل فريق "Superalignment"، الذي ركز على معالجة مخاطر الذكاء الاصطناعي طويلة المدى، ورحيل المؤسس المشارك إيليا سوتسكيفر ، الذي كان يناصر السلامة في الشركة. 

 

وقال جان ليك ، أحد الباحثين السابقين ، إن "ثقافة وعمليات السلامة تراجعت أمام المنتجات اللامعة" في شركة OpenAI ، ولدى OpenAI فريق سلامة جديد، فريق بقيادة الرئيس التنفيذي سام التمان .










مشاركة



الرجوع الى أعلى الصفحة