قام المسئولين عن تطبيق DeepNude الذى يستخدم تقنية الذكاء الاصطناعى لإنشاء صور عارية مزيفة للنساء بإغلاق التطبيق بسبب مخاوف من سوء الاستخدام، وتعرضه للهجوم الشديد والانتقادات، وبعد ساعات من انتشار فيروس به.
ووفقًا لموقع "gadgetsnow " الهندى، أبلغ العديد من الاشخاص عن مشكلات فى تنزيل التطبيق الذى كان متاحًا لنظامى التشغيل Windows و Linux بعد أن تعرض الموقع لإقبال كبير من المستخدمين.
لم يتوقع الفريق هذا الاقبال وحاولوا فى البداية السيطرة على الأمور، قبل أن يقرروا إغلاقه تمامًا، وقال المسئولين فى تغريدة "مرحبًا! DeepNude غير متصل بالإنترنت الآن، لأننا لم نكن نتوقع هذا العدد، كما أن خوادمنا بحاجة إلى تعزيز، نحن فريق صغير ونحتاج إلى إصلاح بعض الأخطاء."
Hi! DeepNude is offline. Why? Because we did not expect these visits and our servers need reinforcement. We are a small team. We need to fix some bugs and catch our breath. We are working to make DeepNude stable and working. We will be back online soon in a few days.
— deepnudeapp (@deepnudeapp) June 27, 2019
We are sorry for the various problems. Really. We didn't expect this traffic. The best thing, if it doesn't download well now, is to try later.
— deepnudeapp (@deepnudeapp) June 27, 2019
ويذكر أن تطبيق DeepNude يقوم بالتلاعب تقنيًا بصور النساء، وقد جعل الفريق التطبيق متاحًا فى نسختين، نسخة مجانية تجريبية بعلامة مائية، ونسخة أخرى مدفوعة بقيمة 50 دولار، وقال المؤسسون: "لقد أنشأنا هذا المشروع للترفيه على المستخدمين منذ أشهر، وكنا نظن أننا نسيطر على الأمور".
وأضافوا: "على الرغم من أخذ الحذر وإضافة العلامة المائية، لازال وجود احتمال إساءة استخدام الناس لها مرتفع للغاية، ونحن لا نريد كسب المال بهذه الطريقة، بجانب أنه بالتأكيد ستتم مشاركة بعض نسخ DeepNude على الويب، لكننا لا نريد أن يبيعه أحد غيرنا، وسيكون تنزيل البرنامج من مصادرأخرى أو مشاركته بأى وسيلة أخرى ضد شروط موقعنا على الويب، والعالم ليس جاهزًا بعد لـ DeepNude".