أعلنت شركة مايكروسوفت أنها دخلت في شراكة مع StopNCII للمساعدة في إزالة الصور الحميمية غير التوافقية بما في ذلك الصور المزيفة العميقة من محرك بحث Bing الخاص بها.
عندما يفتح الضحية "قضية" مع StopNCII، تقوم قاعدة البيانات بإنشاء بصمة رقمية، تسمى أيضًا "التجزئة"، لصورة أو مقطع فيديو حميمي مخزن على جهاز ذلك الشخص دون الحاجة إلى تحميل الملف.
ويتم بعد ذلك إرسال التجزئة إلى شركاء الصناعة المشاركين، الذين يمكنهم البحث عن تطابقات للنسخة الأصلية وإزالتها من نظامهم الأساسي إذا كانت تنتهك سياسات المحتوى الخاصة بهم، وتنطبق العملية أيضًا على الصور المزيفة العميقة التي ينشئها الذكاء الاصطناعي لشخص حقيقي.
ووافقت العديد من شركات التكنولوجيا الأخرى على العمل مع StopNCII لمسح الصور الحميمة التي تمت مشاركتها دون إذن، وساعدت ميتا في بناء الأداة، وتستخدمها على منصات Facebook وInstagram وThreads ، وتشمل الخدمات الأخرى التي شاركت في هذا الجهد TikTok وBumble وReddit وSnap وNiantic وOnlyFans وPornHub وPlayhouse وRedgifs.
والغريب أن شركة جوجل تغيب عن تلك القائمة، لدى عملاق التكنولوجيا مجموعة أدواته الخاصة للإبلاغ عن الصور غير التوافقية، بما في ذلك الصور المزيفة العميقة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
ومع ذلك، فإن الفشل في المشاركة في أحد الأماكن المركزية القليلة لمسح المواد الإباحية الانتقامية وغيرها من الصور الخاصة يمكن القول إنه يضع عبئًا إضافيًا على الضحايا لاتخاذ نهج تدريجي لاستعادة خصوصيتهم.
بالإضافة إلى الجهود مثل StopNCII، اتخذت حكومة الولايات المتحدة بعض الخطوات هذا العام لمعالجة الأضرار التي يسببها الجانب المزيف من الصور غير التوافقية على وجه التحديد.
ودعا مكتب حقوق الطبع والنشر الأمريكي إلى سن تشريعات جديدة حول هذا الموضوع، وتحركت مجموعة من أعضاء مجلس الشيوخ لحماية الضحايا من خلال قانون منع التزييف، الذي تم تقديمه في يوليو.
تم أضافة تعليقك سوف يظهر بعد المراجعة