كشف تقرير حديث، أن مجموعة البيانات المستخدمة لتدريب مولدات صور الذكاء الاصطناعي تحتوى على آلاف الصور المشتبه بها للاعتداء الجنسي على الأطفال، حيث وجد تحقيق أجراه مركز السياسات السيبرانية بجامعة ستانفورد، أن قاعدة بيانات LAION-5B، والتي تم استخدامها لتدريب العديد من مولدات صور الذكاء الاصطناعي بما في ذلك Stable Diffusion، تحتوي على أكثر من 3200 صورة لإساءة معاملة الأطفال المشتبه بها.
ووفقا لما ذكره موقع "business insider"، تم التأكد من أن ما يزيد قليلاً عن 1000 من هذه الصور هي مواد اعتداء جنسي على الأطفال، مع تحذير التقرير من أن وجودها في مجموعة البيانات قد يسمح باستخدام أدوات الذكاء الاصطناعي المبنية على هذه البيانات لإنشاء محتوى جديد لإساءة معاملة الأطفال.
ويعد LAION-5B عبارة عن أرشيف عام ضخم يضم حوالي خمسة مليارات صورة تم التقاطها من الويب المفتوح.
وقد تم استخدامه من جانب مجموعة متنوعة من شركات الذكاء الاصطناعي، والتي تتطلب كميات هائلة من البيانات لتدريب نماذج الذكاء الاصطناعي التوليدية التي يمكنها إنتاج صور جديدة في ثوانٍ.
حذر الخبراء منذ فترة طويلة من أن مولدات صور الذكاء الاصطناعي تخاطر بإطلاق الصور الواقعية للغاية التي تم إنشاؤها باستخدام الذكاء الاصطناعي للاعتداء الجنسي على الأطفال، مع تحذير مؤسسة مراقبة الإنترنت (IWF) من أن مثل هذه الصور منتشرة بالفعل على نطاق واسع على شبكة الإنترنت المظلمة.
وفي الوقت نفسه، دعت منظمات السلامة عبر الإنترنت في المملكة المتحدة إلى اتخاذ "إجراءات عاجلة" بشأن حالات استخدام الأطفال لمولدات صور الذكاء الاصطناعي في المدرسة لإنشاء محتوى غير لائق لزملائهم التلاميذ.
وتشهد أيضًا تطبيقات الذكاء الاصطناعي التي تستخدم تقنية مشابهة لـ "خلع ملابس" النساء في الصور من خلال إنشاء صور عارية مزيفة لهن، تزايدًا في شعبيتها، وفقًا لبيانات من Graphika.
يعد Stable Diffusion النموذج الأكثر شهرة لاستخدام قاعدة بيانات LAIONK، حيث أصبحت الأداة، التي طورتها شركة Stability AI ومقرها المملكة المتحدة، واحدة من أكثر أدوات إنشاء الصور انتشارًا وشعبية منذ إطلاقها في عام 2022.
وقال متحدث باسم منظمة LAION الألمانية غير الربحية، التي تقف وراء مجموعة البيانات، لبلومبرج إن المجموعة كانت تزيل مجموعات البيانات الخاصة بها مؤقتًا من الإنترنت بينما تقوم بمسح المحتوى غير القانوني.
وفي الوقت نفسه، قال متحدث باسم Stability AIK أن الشركة قدمت مرشحات لمنع المستخدمين من إنشاء محتوى غير قانوني باستخدام Stable Diffusion وأن نماذج Stability AI تم تدريبها فقط على مجموعة فرعية تمت تصفيتها من LAION-5B.
أصدرت الشركة Stable Diffusion 2.0، الذي يفرض ضوابط أكثر صرامة على المحتوى الجنسي الصريح، في العام الماضي، ولكن الإصدار 1.5، الذي ينشئ محتوى صريحًا، لا يزال متاحًا على شبكة الإنترنت المفتوحة.