انتهت وحدة البحوث والدراسات بمرصد الأزهر لمكافحة التطرف، من تقرير مهم بعنوان " الإرهاب واستغلال تقنيات الذكاء الاصطناعي.. خطرٌ يهدّد البشرية"، أوضحت فيه إنَّ المتتبع للساحة العسكرية ومجالِ صناعة الأسلحة حاليًّا، لا يجد صعوبة في اكتشاف اتجاه بعض الدول -التي يقوم اقتصادُها على صناعة الأسلحة وتجارتها- حديثًا إلى توظيف الذكاء الاصطناعي، واستخدامِ التقنيات الحديثة في مجال الحروب، ومن هذه التقنيات ما يسمى بالروبوتات القاتلة، ومِن المحتمَل أن يزيد الاعتماد عليها بشكل كبير في الحروب المستقبلية، ومما عزَّز الاهتمام بتصنيع هذه الروبوتات والاعتماد عليها الظروفُ التي مَرَّ بها العالم في ظل جائحة كورونا، والتي أعطَتْ مفهومًا جديدًا للاعتماد على التكنولوجيا الحديثة، وتقليل الاعتماد على العنصر البشري قدرَ الإمكان، والتي قد تُتِيح المجال للدول لاستخدامِها في الحروب المستقبلية، بهدف التقليل من الاعتماد على الجنود، دونَ مراعاة لما تسبِّبُه هذه الأسلحة مِن خطرٍ على البشرية، ومما شجَّع على ذلك نجاحُ هذه الروبوتات في المجالات المدنية المختلفة: الطبية، والتعليمية، والصناعية وغيرها، وهو ما أبرزَ الاهتمامَ بمِثل هذه الأسلحة ذاتيةِ التشغيل، والتي بإمكانها الاستغناءُ عن العنصر البشري.
وتابع التقرير : في الآونة الأخيرة، ازداد اعتمادُ الوسائل العسكرية الحديثة، ومِن بينها الروبوتات القاتلة، حتى صارت بعض دول العالم تبحث عن سبلٍ للتوسع في استخدامها في العمليات العسكرية، ولكن مما يزيد الأمرَ خطورةً هو أنه لا توجد قواعد محددة لمنع مثل هذه الوسائل، أو تقنين استعمالها في القانون الدولي، الأمرَ الذي يثير العديد من المخاوف والتساؤلات حول تداعيات اللجوء لهذا النمط من الأسلحة خلال الفترة المقبلة. وتُعرَّف الربوتات القاتلة بأنها: تلك الأسلحة ذاتية التحكُّم، والتي تَتخِذ القرار في ميدان القتال دون تدخُّل الإنسان، ومن خلال تحكم ذاتي، وإحدى منظومات السلاح الآلية التي تستطيع في حال تشغيلها أن تختار الأهداف وتشتبك معها، دون حاجة إلى تدخل من العنصر البشري الذي يقوم بتشغيلها.
وأشار إلى أنه قد عَرَّفت المملكة المتحدة -في مايو 2011م- هذه الأسلحة في إطار بحث بعنوان: "مقاربة المملكة المتحدة لأنظمة الطائرات غير المأهولة" بأنها: تلك النُظم ذاتية التحكم، والتي لها القدرة على الفَهم والتحليل بمستوًى عالٍ، انطلاقًا من معالجة البيئة المحيطة بها، والقدرة على تحديد مسار العمل، واختيار البدائل، دون الاعتماد على إشراف الإنسان أو مراقبته، وكان ذلك التعريف في إطار وضع تعريفاتٍ لنُظم الأسلحة المستخدمة عن بُعد ودَورها في التنظيمات العسكرية. (العشاش، 2018).
وفي ظل هذا التقدم التكنولوجي الواقع، واستخدام الذكاء الاصطناعي حذِّر مرصد الأزهر لمكافحة التطرُّف مِنِ عواقب امتلاك التنظيمات الإرهابية لمثلِ هذه التقنيات، القائمة على الذكاء الاصطناعي في ممارسة أنشطتها الإرهابية؛ حيث تتَطلَّع التنظيمات الإرهابية لسرقة السيارات -ذاتية القيادة- من أجل تنفيذ هجماتها الخبيثة وقتل الأبرياء، إضافة إلى السعي لامتلاك أسلحة متقدِّمة يتم استخدامها في تنفيذ الهجمات دون الاعتماد على العناصر البشرية، بما يمنح تلك التنظيمات الفرصة لتنفيذ أنشتطها الإرهابية بأقلِّ الخسائر في صفوف عناصرها.
وفي ذلك كشفت دراسة أجريت عام 2015م للباحث آدم دولنيك، أستاذ دراسات الإرهاب في جامعة ولونجونج الخاصة بدولة الإمارات العربية المتحدة، أن التنظيمات الإرهابية هي تنظيمات تدرجيّة وليست ثورية، ذلك أنها تختار تكييف التكنولوجيا وفقًا لأهدافها الإستراتيجية والتنظيمية والتكتيكية؛ حيث تعاملت الدراسة مع التكنولوجيا على أنها شيء يستخدمه المتطرفون لاستكمال التكتيكات التقليدية.
وهذا هو السبب في أن باحثين آخرين خلصوا في وقتٍ لاحق، إلى أنه في حين أن التنظيمات الإرهابية قد تكون مبتكرة في كيفية تطبيقها للتكنولوجيا، فإن تفكيرها وأفعالها محدودة النطاق، ومن ثم تفتقر إلى ما يمكن أن يصفه البعض بـ "الإبداع الخبيث".
وقد، شهدت السنوات الأخيرة لجوء بعض التنظيمات الإرهابية لتنفيذ هجمات بطائرات مسيرة لاستهداف مواقع في الشرق الأوسط مثل القواعد العسكرية ومواقع تخزين النفط والمطارات، وبحسب مقال نشره موقع "عين أوروبية على التطرّف" لجأ تنظيم داعش الإرهابي بعد فترة وجيزة من إعلان خلافته المزعومة في 2014م إلى استعمال طائرات مسيّرة جزءًا مما كان في الأساس عمليات عسكرية تقليدية لتوسيع حدود دويلته. ومع اقتراب التحالف الذي تقوده الولايات المتحدة من الموصل.
ويَخشى المرصد من حدوث السيناريو المرعب جرَّاءَ امتلاكِ التنظيمات الإرهابية مجموعةً مِن النُّسخ السيئة لهذه الأسلحة؛ حيث يُنذر ذلك بجرائمَ أكثرَ وحشيةً، ودموية مما عليه الحال مِنَ الاعتماد على مقاتلين مِنَ العناصر البشرية، ويُشدِّد المرصد على أهمية فرْضِ رقابة مشدَّدة على صناعة الأسلحة -لا سيَّما في ظلِّ التقدُّم التكنولوجي- خشيةَ تطويع هذا التطوُّر لخدمة الإرهاب وأغراضه الخبيثة.
وأشار المرصد إلى أنَّ استخدام وتوظيف تقنيات الذكاء الاصطناعي في المجال العسكري بات من الأمور الخطيرة، التي قد تتسبَّب في العديد من الآثار المروِّعة، فبجانب ما تُحقِّقه هذه التقنيات من أمان في صفوف الجنود، لك أن تتخيل الخسائر الأخرى، وخاصة في أعداد ضحايا صفوف المدنيِّين، الأمرَ الذي دفع المرصد لتقديم مجموعة من التوصيات لحماية البشرية من هذا الخطر الداهم، أهمُّها:
1- ضرورة إخضاع مثل هذه الأسلحة -وغيرها من الأسلحة الفتاكة- لقواعد القانون الدولي الإنساني، وإقرار المجتمع الدولي لقواعد تُنظِّم صناعة وتداول واستخدام مثل هذه الأسلحة.
2- التفكير جيدًا في مشروعية اقتناء أو استخدام الأسلحة الجديدة ومدى اتفاقها مع قواعد القانون الدولي، كما يجب مراعاة الأمن المادي والضمانات غير المادية المناسبة (بما في ذلك الأمن السيبراني المحصن ضد القرصنة أو سرقة البيانات).
3- توفير الضمانات الكفيلة بمنع حيازة الأسلحة التي تقوم على تقنيات الذكاء الاصطناعي مِن قِبَل التنظيمات الإرهابية، ومواجهة خطر انتشار تلك التنظيمات في حالة اقتناء أو تطوير مثل تلك الأسلحة، وهو ما ينطبق على منظومة الروبوتات العسكرية ذاتية التشغيل.
4- ضرورة أن يتخذ المجتمع الدولي خُطُواتٍ ملموسة لوقف استخدام، وانتشار الأسلحة ذاتية التشغيل بالكامل، وذلك من خلال عقد المؤتمرات الدولية لبحث هذه الظاهرة ووضْع حدٍّ لانتشارها، أو من خلال سَنِّ القوانين التي تُجرِّم تصنيع، وحيازة مثل هذه الأسلحة.
5- التأكيد على أنَّ التكنولوجيا التي يتوصَّل الإنسان إلى ابتكارها، واكتشاف، وتطوير عملها، ما هي إلا وسيلة يمكن استخدامها لخدمة البشرية، لا لإبادتها، وتدمير الأرض.
6-حثُّ الشباب على استخدام التكنولوجيا بشكل إيجابي يخدم البشرية، والعمل على وقايتها من الأضرار البيئية، أو الصحية، أو التغيرات التي تؤثر بالسلب على الإنسان، وتُضعف من فُرَصهِ للحصولِ على بيئة صحية خالية مِن الأمراض.
7- ضرورة التعامل مع الأفكار، والاكتشافات الحديثة على أنَّها سلاحٌ ذو حدَّيْن؛ وتسليط الضوء على الجوانب المضيئة منها في خدمة البشرية، وإعمار الكون، وصيانته من الهلاك والدَّمار.
تم أضافة تعليقك سوف يظهر بعد المراجعة