أصدر مجلس الدفاع عن الابتكار سلسلة من التوصيات إلى وزارة الدفاع حول كيفية تطبيق استخدام الذكاء الاصطناعى فى الصراع العسكرى فى المستقبل، حيث اقترح عمالقة التكنولوجيا، ومن أبرزهم مايكروسوفت وجوجل وفيس بوك، إرشادات أخلاقية لاستخدام الذكاء الاصطناعى فى الجيش لتجنب الأذى غير المقصود للإنسان.
ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، يقول التقرير إن استخدام الذكاء الاصطناعى فى العمليات العسكرية أو اتخاذ القرارات يأتى مع واجب اتخاذ الاحتياطات الممكنة لتقليل مخاطر الأذى للسكان المدنيين والأشخاص والأشياء المحمية الأخرى.
وقد تم إنشاء مجلس الدفاع عن الابتكار لأول مرة فى عام 2016 لإنشاء سلسلة من أفضل الممارسات بشأن التعاون المحتمل بين الجيش الأمريكى ووادى السيليكون، وهناك ستة عشر عضوًا حاليًا فى مجلس الإدارة من عدد كبير من التخصصات، بما فى ذلك الرئيس التنفيذى السابق لجوجل إريك شميدت، وإحدى المديرين التنفيذين بفيس بوك مارن ليفين، وكبير مسؤولى مايكروسوفت الرقمى كورت ديلبين، وعالم الفيزياء الفلكية نيل دى جراس تايسون.
ويقول التقرير "لقد حان الوقت فى هذه المرحلة المبكرة من تجدد الاهتمام بالذكاء الاصطناعى، لإجراء مناقشات جادة حول معايير تطوير الذكاء الاصطناعى واستخدامه فى سياق عسكرى قبل وقت طويل من وقوع حادث".
ويحدد التقرير خمسة مبادئ أخلاقية يجب أن تكون فى صميم كل قرار رئيسى يتعلق باستخدام الذكاء الاصطناعى فى الجيش، وهم أن يكون مسؤول، عادل، يمكن تتبعه، موثوق به، وقابل للتحكم به.
كما يقدم التقرير اثنى عشر توصية حول كيفية دمج الذكاء الاصطناعى فى الحرب المعاصرة، حيث يوصى المجلس بوضع استراتيجية لإدارة المخاطر من شأنها إضفاء الطابع الرسمى على تصنيف النتائج السلبية.
يوصى التقرير بتطوير منهجية لإدارة المخاطر لتفسير جميع النتائج السلبية المحتملة التى يمكن أن تأتى من ترك اتخاذ القرارات إلى جهاز كمبيوتر.
ويشدد المجلس أيضًا على أهمية وضع معايير محددة لتقييم موثوقية الذكاء الاصطناعى لأنه يوازى الأداء البشرى فى المواقع العسكرية.
تم أضافة تعليقك سوف يظهر بعد المراجعة