خبير ذكاء اصطناعى يحذر من القرارات العنصرية للآلات فى مجال العمل

الإثنين، 16 ديسمبر 2019 02:10 م
خبير ذكاء اصطناعى يحذر من القرارات العنصرية للآلات فى مجال العمل الذكاء الاصطناعى
كتبت أميرة شحاتة

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

أصدر خبير بارز في مجال الذكاء الاصطناعى تحذيراً صارخاً ضد استخدام خوارزميات متحيزة جنسياً حسب نوع الجنس لاتخاذ قرارات حاسمة.

ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، بدأت الخوارزميات في الإشراف على العمليات المختلفة من طلبات العمل وطلبات الهجرة إلى شروط الكفالة وتطبيقات الرعاية الاجتماعية، حتى أن الباحثين العسكريين يستكشفون ما إذا كانت تقنية التعرف على الوجه يمكن أن تمكن الطائرات بدون طيار المستقلة من تحديد أهدافها الخاصة.

بينما قال نويل شاركي، خبير الكمبيوتر بجامعة شيفيلد، إن هذه الخوارزميات مصابة بالتحيزات ولا يمكن الوثوق بها، ودعا إلى وقف الذكاء الاصطناعى من إمكانية تغيير حياة الناس، كما ينادي بدلاً من ذلك بإجراء اختبارات قوية قبل استخدامها في الأماكن العامة.

ويجب أن يكون هناك وقف لجميع الخوارزميات التي تؤثر على حياة الناس،  قائلا "إنهم لا يعملون جيدا، وقد ثبت أنهم متحيزون في جميع المجالات".

وأضاف: "هناك الكثير من التحيزات التي تحدث الآن، من المقابلات الوظيفية إلى الرعاية الاجتماعية إلى تحديد من الذي يجب أن يحصل على الكفالة ومن يجب أن يذهب إلى السجن".

وأكد: "من الواضح تمامًا أنه يتعين علينا بالفعل التوقف عن استخدام خوارزميات القرار"، وأجرى البروفيسور شاركي مناقشات مع بعض المؤسسات الرائدة في مجال التكنولوجيا ووسائل التواصل الاجتماعي في العالم بما في ذلك فيسبوك وجوجل، حول التحيز الذي نراه حاليًا في منظمة الذكاء الاصطناعى.

وقال: "إنهم يعلمون أنها مشكلة وقد عملوا لإيجاد حل خلال السنوات القليلة الماضية، ولكن لم يتم العثور على أي شيء حتى الآن"، مضيفا "يجب أن تخضع هذه الخوارزميات لنفس الاختبارات الصارمة التي يخضع لها أي دواء جديد يتم إنتاجه في نهاية المطاف للاستهلاك البشري".

 







مشاركة






الرجوع الى أعلى الصفحة