أوروبا تقر تشريعًا تاريخيًا كأول قانون فى العالم لتنظيم الذكاء الاصطناعى.. تقرير: يفرض حظرا شاملا على بعض الاستخدامات غير الأخلاقية والتقاط صور الوجه من الإنترنت.. ويضع ضمانات لاستخدام التقنيات للأغراض العامة

الجمعة، 15 مارس 2024 02:00 ص
أوروبا تقر تشريعًا تاريخيًا كأول قانون فى العالم لتنظيم الذكاء الاصطناعى.. تقرير: يفرض حظرا شاملا على بعض الاستخدامات غير الأخلاقية والتقاط صور الوجه من الإنترنت.. ويضع ضمانات لاستخدام التقنيات للأغراض العامة الذكاء الاصطناعى - أرشيفية
فاطمة شوقى

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

وافقت أوروبا على أول قانون في العالم لتنظيم الذكاء الاصطناعى لتكون متقدمة عن الدول الأخرى في تشريع قوانين تحكم مجالات التكنولوجيا الناشئة، وبهذا القانون الذى وصفه الخبراء بأنه "تاريخى" سيتم إعادة تشكيل كيفية استخدام الشركات والمنظمات في أوروبا للذكاء الاصطناعى في كل شيء بدءا من قرارات الرعاية الصحية حتى حفظ الأمن ، كما أنه يحفظ حظرا شاملات على بعض الاستخدامات الغير أخلاقية للتكنولوجيا، حسبما قالت صحيفة "الجورنال" الإيطالية.

وبحسب بيان البرلمان الأوروبي، جاءت الموافقة بأغلبية 523 عضواً صوتوا لصالح التشريع، مقابل 46 عضواً رفضوا القانون، و49 عضواً امتنعوا عن التصويت.

وأشارت الصحيفة في تقرير لها إلى أن قانون الذكاء الاصطناعى يضمن أيضا الأمن واحترام الحقوق الأساسية مع تشجيع الابتكار، وكانت اللائحة، التي تم الاتفاق عليها في المفاوضات مع الدول الأعضاء في ديسمبر 2023، حظيت بدعم البرلمان الأوروبي بأغلبية 523 صوتًا مقابل 46 صوتًا وامتناع 49 عن التصويت.

ويهدف إلى حماية الحقوق الأساسية والديمقراطية وسيادة القانون والاستدامة البيئية من الذكاء الاصطناعي عالي المخاطر، مع دفع الابتكار وترسيخ أوروبا كدولة رائدة في هذا القطاع، وتحدد اللائحة سلسلة من الالتزامات المتعلقة بالذكاء الاصطناعي بناءً على مخاطره المحتملة ومستوى تأثيره.

ومن ناحية آخرى ، تحظر القواعد الجديدة بعض تطبيقات الذكاء الاصطناعي التي تنتهك حقوق المواطنين، مثل أنظمة التصنيف البيومترية بناء على الخصائص الحساسة والتقاط صور الوجه بشكل عشوائي من الإنترنت أو التسجيلات من كاميرات المراقبة لإنشاء قواعد بيانات للتعرف على الوجه، أو التعرف على المشاعر في مكان العمل والمدرسة ، وأنظمة تصنيف المواطنين، والشرطة التنبؤية (عندما تعتمد فقط على ملف تعريف الشخص أو تقييم خصائصه) والذكاء الاصطناعي الذي يتلاعب بالسلوك البشري أو يستغل نقاط ضعف الناس.

وكشف هذا النظام، على غرار أنظمة أخرى قادرة على إنشاء الأصوات أو الصور، أمام عموم المستخدمين عن الإمكانات الهائلة للذكاء الاصطناعي. لكن هذه التكنولوجيا تترافق أيضاً مع مخاطر مختلفة، تشمل نشر صور زائفة تبدو واقعية للغاية، ما يثير مخاوف من الإمكانات الكبيرة للتلاعب بالرأي العام.

 

إعفاءات قوات الأمن

يُحظر استخدام أنظمة تحديد الهوية البيومترية من قبل قوات الأمن بشكل مسبق، إلا في حالات محددة،  ويستعد هذا القانون التاريخي لإعادة تشكيل كيفية استخدام الشركات والمنظمات في أوروبا للذكاء الاصطناعي في كل شيء بدءاً من قرارات الرعاية الصحية وحتى حفظ الأمن، كما يفرض حظراً شاملاً على بعض الاستخدامات غير الأخلاقية للتكنولوجيا.

 ولا يمكن استخدام أنظمة تحديد الهوية البيومترية "في الوقت الحقيقي" إلا في حالة استيفاء ضمانات صارمة؛ على سبيل المثال، يقتصر استخدامه على فترة ومكان محددين ويتطلب الحصول على إذن قضائي أو إداري مسبق. قد تشمل هذه الحالات البحث الانتقائي عن شخص مفقود أو منع وقوع هجوم إرهابي. ويعتبر استخدام هذه الأنظمة بعد وقوعها استخدامًا شديد الخطورة، ويتطلب الحصول على إذن قضائي لارتباطه بجريمة جنائية.

وينص التشريع على إشراف محدد على أنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، مع واجب إعلام المستخدمين بذلك، وكما الحال في القواعد الأوروبية الحالية بشأن سلامة المنتجات، يفرض النص ضوابط تعتمد في المقام الأول على الشركات.

التزامات الأنظمة عالية المخاطر

كما يتم توفير التزامات واضحة لأنظمة الذكاء الاصطناعي الأخرى عالية المخاطر (لأنها يمكن أن تكون ضارة للغاية بالصحة والسلامة والحقوق الأساسية والبيئة والديمقراطية وسيادة القانون). تشمل أمثلة الاستخدامات عالية المخاطر للذكاء الاصطناعي البنية التحتية الحيوية، والتعليم والتدريب المهني، والتوظيف، والخدمات العامة والخاصة الأساسية (على سبيل المثال، الرعاية الصحية أو الخدمات المصرفية)، وبعض أنظمة إنفاذ القانون، وإدارة الهجرة والجمارك، والعدالة والعمليات الديمقراطية (مثل التأثير على الانتخابات). ويجب أن تقوم هذه الأنظمة بتقييم المخاطر والحد منها، والاحتفاظ بسجلات الاستخدام، وأن تكون شفافة ودقيقة، وأن تخضع لإشراف بشري. سيكون للمواطنين الحق في تقديم شكاوى حول أنظمة الذكاء الاصطناعي وتلقي توضيحات حول القرارات المبنية عليها والتي تؤثر على حقوقهم.

 

متطلبات الشفافية

ويجب أن تستوفي أنظمة الذكاء الاصطناعي ذات الأغراض العامة والنماذج التي تعتمد عليها بعض متطلبات الشفافية، وأن تحترم قانون حقوق الطبع والنشر في الاتحاد الأوروبي، وأن تنشر ملخصات مفصلة للمحتوى المستخدم لتدريب نماذجها. ستحتاج النماذج الأكثر قوة التي يمكن أن تشكل مخاطر نظامية إلى تلبية متطلبات إضافية، مثل إجراء تقييمات النماذج، وتحليل وتخفيف المخاطر النظامية، والإبلاغ عن الحوادث.

بالإضافة إلى ذلك، يجب تصنيف الصور أو محتوى الصوت أو الفيديو الاصطناعي أو المُتلاعب به ("التزييف العميق") بوضوح على هذا النحو.

تدابير لدعم الابتكار والشركات الصغيرة والمتوسطة

ولابد من إتاحة مساحات الاختبار والتجربة الخاضعة للرقابة في ظل ظروف حقيقية للشركات الصغيرة والمتوسطة والشركات الناشئة على المستوى الوطني حتى تتمكن من تطوير وتدريب الذكاء الاصطناعي المبتكر قبل تسويقه تجاريا.

 










مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة