جدل بعد رسالة "وقف تطوير الذكاء الاصطناعى مؤقتا".. صحف: باحثون يدينون الاستشهاد بأبحاثهم فى خطاب وقع عليه إيلون ماسك وآخرون ينفون التوقيع.. خبراء: يركز على خطورة سيناريوهات نهاية العالم ويغفل التهديدات الأخرى

السبت، 01 أبريل 2023 04:30 م
جدل بعد رسالة "وقف تطوير الذكاء الاصطناعى مؤقتا".. صحف: باحثون يدينون الاستشهاد بأبحاثهم فى خطاب وقع عليه إيلون ماسك وآخرون ينفون التوقيع.. خبراء: يركز على خطورة سيناريوهات نهاية العالم ويغفل التهديدات الأخرى إيلون ماسك
كتبت رباب فتحى

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

بعد أيام من الإعلان عن خطاب وقع عليه المئات وعلى رأسهم إيلون ماسك، يطالب مطورى الذكاء الاصطناعى بوقف عملهم لمدة ستة أشهر، وسط مخاوف من المخاطر المحتملة على المجتمع والإنسانية، قالت صحيفة "الجارديان" البريطانية إن الرسالة تسببت في خلق عاصفة من الجدل ، بعد أن أدان باحثون تم الاستشهاد بأعمالهم في الرسالة استخدام أبحاثهم للتأكيد على وجهة نظر معينة ، بينما نفى بعض الخبراء التوقيع عليها بالأساس ، كما تراجع البعض الآخر عن دعمها.

وفي 22 مارس ، دعا أكثر من 1800 موقع - بما في ذلك ماسك ، والعالم جاري ماركوس ، والمؤسس المشارك لشركة "آبل" ستيف وزنياك - إلى وقف تطوير عمل الذكاء الاصطناعى لمدة ستة أشهر لتطوير أنظمة "أقوى" من تلك الخاصة بـ GPT-4. كما قدم المهندسون من أمازون و ديب مايند و جوجل و ميتا و ميكروسوفت دعمهم لذلك.

وطورت شركة  OpenAI ، وهي شركة شارك في تأسيسها ماسك وتدعمها ميكروسوفت الآن ،نظام GPT-4 والذى يتيح القدرة على إجراء محادثة شبيهة بالبشر وتأليف الأغاني وتلخيص المستندات الطويلة. وزعمت الرسالة أن أنظمة الذكاء الاصطناعي التي تتمتع "بذكاء تنافسي بشري" تشكل مخاطر جسيمة على البشرية.

وجاء في الرسالة: "يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يمكن التأكد من دقته والإشراف عليه من قبل خبراء خارجيين مستقلين".

استشهد معهد "مستقبل الحياة"، وهو مركز الفكر الذي نسق الجهود ، بـ 12 ورقة بحث من خبراء بما في ذلك أكاديميون جامعيون بالإضافة إلى موظفين حاليين وسابقين في OpenAI و جوجل وشركتها الفرعية ديب مايند. لكن أربعة خبراء تم الإشارة إلى أعمالهم في الرسالة أعربوا عن قلقهم من أن أبحاثهم استخدمت لتقديم مثل هذه الادعاءات.

وأوضحت الصحيفة أنه عندما تم إعلان الرسالة في البداية، افتقرت إلى بروتوكولات التحقق للتوقيع وحصلت على توقيعات من الأشخاص الذين لم يوقعوا عليها بالفعل، بما في ذلك الرئيس الصينى شى جين بينج  وكبير علماء الذكاء الاصطناعي يان لوكان، فى شركة ميتا،  الذي أوضح على تويتر أنه لا يدعمها.

واتهم النقاد معهد "مستقبل الحياة" ، الذي تموله مؤسسة ماسك بشكل أساسي، بإعطاء الأولوية لسيناريوهات نهاية العالم المتخيلة على المخاوف الأكثر إلحاحًا بشأن الذكاء الاصطناعي - مثل التحيزات العنصرية أو الجنسية التي يتم برمجتها في الآلات.

ومن بين الأبحاث التي تم الاستشهاد بها "حول مخاطر الببغاوات العشوائية" ، وهي ورقة بحثية مشهورة شاركت في تأليفها مارجريت ميتشل ، التي أشرفت سابقًا على أبحاث الذكاء الاصطناعي الأخلاقية في جوجل. وانتقدت ميتشل ، كبيرة علماء الأخلاقيات الآن في شركة "هاجينج فايس"  للذكاء الاصطناعي ، الرسالة قائلة لرويترز إنه من غير الواضح ما الذي يعتبر "أقوى من GPT4".

وقالت: "من خلال التعامل مع الكثير من الأفكار المشكوك فيها على أنها أمر مفروغ منه ، تؤكد الرسالة مجموعة من الأولويات وسردًا عن الذكاء الاصطناعي يفيد مؤيدي معهد مستقبل الحياة . تجاهل الأضرار النشطة في الوقت الحالي هو امتياز لا يتمتع به البعض منا."

واعترضت شيري دوري-هاكوهين ، الأستاذة المساعدة في جامعة كونيتيكت ، أيضًا على عملها المذكور في الرسالة. وشاركت العام الماضي في تأليف ورقة بحثية تجادل بأن الاستخدام الواسع للذكاء الاصطناعي يشكل بالفعل مخاطر جسيمة.

وجادل بحثها أن الاستخدام الحالي لأنظمة الذكاء الاصطناعي يمكن أن يؤثر على صنع القرار فيما يتعلق بتغير المناخ ، والحرب النووية ، والتهديدات الوجودية الأخرى.

 

 







مشاركة






الرجوع الى أعلى الصفحة