حذرت مجموعة من خبراء التكنولوجيا البارزين من جميع أنحاء العالم من أن تكنولوجيا الذكاء الاصطناعي يجب اعتبارها خطرًا مجتمعيًا والتعامل معها كأولوية في نفس فئة الأوبئة والحروب النووية، وفقا لصحيفة "الجارديان" البريطانية.
وصدر البيان ، الذي وقعه المئات من المديرين التنفيذيين والأكاديميين ، من قبل مركز أمان الذكاء الاصطناعي وسط مخاوف متزايدة بشأن التنظيم والمخاطر التي تشكلها التكنولوجيا على البشرية.
وجاء في البيان الذى نقلته صحيفة الجارديان البريطانية أن "التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية". وكان من بين الموقعين الرؤساء التنفيذيون لشركة "ديب مايند" التابعة لشركة جوجل ، وشركة "أوبن آيه آي" المطور لـ "تشات جي بى تي" ChatGPT ، وشركة أنثروبيك التي تعمل بالذكاء الاصطناعي.
وأطلق قادة العالم وخبراء الصناعة - مثل قادة "أوبن آيه آي" - دعوات لتنظيم التكنولوجيا بسبب المخاوف الوجودية من أنها قد تؤثر بشكل كبير على أسواق العمل ، وتضر بصحة الملايين ، وتسليح المعلومات المضللة والتمييز وانتحال الهوية.
وأوضحت الصحيفة أن داونينج ستريت – مجلس الوزراء البريطاني - ردد صدى الخطر واعترف به الأسبوع الماضي للمرة الأولى - وهو تغيير سريع في المسار داخل الحكومة جاء بعد شهرين من نشر تقرير يحذر من الذكاء الاصطناعي.
على الرغم من أن الرسالة التي نُشرت الثلاثاء ليست الأولى ، فمن المحتمل أن تكون الأكثر تأثيرًا نظرًا لمجموعتها الواسعة من الموقعين.
وقال مايكل أوزبورن ، الأستاذ في التعلم الآلي بجامعة أكسفورد: "إنه لأمر رائع حقًا أن الكثير من الناس وقعوا على هذه الرسالة". "هذا يظهر أن هناك إدراكًا متزايدًا بين أولئك الذين يعملون في الذكاء الاصطناعي بأن المخاطر الوجودية هي مصدر قلق حقيقي.
تم أضافة تعليقك سوف يظهر بعد المراجعة