اكتشاف مواد لإساءة معاملة الأطفال في عالم الذكاء الاصطناعي
يقول باحثون من مرصد ستانفورد للإنترنت، إن مجموعة البيانات المستخدمة لتدريب أدوات إنشاء صور الذكاء الاصطناعي تحتوي على ما لا يقل عن 1008 حالات تم التحقق من صحتها لمواد الاعتداء الجنسي على الأطفال.
ولاحظ باحثو جامعة ستانفورد أن وجود مواد الاعتداء الجنسي على الأطفال في مجموعة البيانات، يمكن أن يسمح لنماذج الذكاء الاصطناعي التي تم تدريبها على البيانات بإنشاء أمثلة جديدة وحتى واقعية لهذه المواد.
وقالت LAION، المنظمة غير الربحية التي أنشأت مجموعة البيانات إن "لديها سياسة عدم التسامح مطلقاً مع المحتوى غير القانوني، وفي ظل قدر كبير من الحذر، نقوم بإزالة مجموعات البيانات مؤقتاً للتأكد من أنها آمنة قبل إعادة نشرها".
وأضافت المنظمة أنها قبل نشر مجموعات البيانات الخاصة بها في المقام الأول، قامت بإنشاء عوامل تصفية لاكتشاف المحتوى غير القانوني وإزالته منها.
ووفقاً للتقارير السابقة، تحتوي مجموعة البيانات المعنية على "ملايين الصور الإباحية والعنف وعري الأطفال والميمات العنصرية ورموز الكراهية والأعمال الفنية المحمية بحقوق الطبع والنشر والأعمال المستخرجة من مواقع الشركات الخاصة"، وبشكل عام، تتضمن أكثر من 5 مليارات صورة والتسميات التوضيحية الوصفية المرتبطة بها.
ومن غير القانوني لمعظم المؤسسات في الولايات المتحدة عرض مواد الإساءة للأطفال لأغراض التحقق، وعلى هذا النحو، استخدم باحثو جامعة ستانفورد العديد من التقنيات للبحث عن هذه المواد.
ووفقاً لورقتهم البحثية، فقد استخدموا الاكتشاف القائم على التجزئة الإدراكية، والكشف القائم على التجزئة المشفرة، للاستفادة من تضمينات الصور في مجموعة البيانات نفسها، وعثروا على 3226 إدخالاً تحتوي على مواد مشتبه بها، بحسب موقع إن غادجيت.