بالذكاء الاصطناعي.. انتشار مشاهد "مرعبة" لاعتداءات جنسية على أطفال

يتزايد بشكل "مرعب" على الإنترنت عدد الصور ومقاطع الفيديو المولّدة بواسطة الذكاء الاصطناعي والمتعلقة باعتداءات جنسية على أطفال، وفق ما نبّهت إليه، الجمعة، منظمة بريطانية مسؤولة عن رصد هذا المحتوى وإزالته عن الشبكة.

ولاحظ بيان لجمعية "إنترنت ووتش فاونديشن" Internet Watch Foundation، التي تُعَدُّ من أبرز المنظمات المعنية بهذا القطاع في أوروبا، أن عددا كبيرا من هذه الصور أو مقاطع الفيديو التي تظهر قاصرين "يتعرضون للاعتداء وسوء المعاملة"، تتسم بأنها "واقعية جدا لدرجة أن تمييزها عن صور ومشاهد الأطفال الحقيقيين يكاد يكون مستحيلا".

 
 
تعبيرية من آيستوك

وأدى التطور الهائل للذكاء الاصطناعي التوليدي الذي يتيح إنتاج النصوص والصور بناءً على طلب بسيط باللغة اليومية إلى تسهيل إنشاء هذه المواد التي تستخدم الأطفال في المواد الإباحية، والتي تخضع للقانون في المملكة المتحدة.

وتلقّت جمعية "إنترنت ووتش فاونديشن" 70 بلاغا عن حالات من هذا النوع بين أبريل 2023 ومارس 2024، أما البلاغات التي تلقّتها هذه السنة فبلغت حتى 74 خلال ستة أشهر فحسب، بين أبريل ونهاية سبتمبر 2024.

وكانت كل هذه الصور تقريبا موجودة على مواقع مفتوحة، تَسهُل على عامة الناس معاينتها، وهي مواقع تنطلق خصوصا من روسيا (36%) والولايات المتحدة (22%) واليابان (11%).

 وتولى مستخدمو الإنترنت تقديم ثلاثة أرباع هذه البلاغات إلى الجمعية مباشرة، بعدما وقعوا عليها في "المنتديات أو معارض صور الذكاء الاصطناعي".

ووصف محلل من المنظمة طلب عدم إبقاء اسمه طي الكتمان لأسباب أمنية هذه الزيادة في البلاغات بأنها "مرعبة"، متخوفا من أن تكون مؤشرا للوصول إلى "نقطة حرجة"، ومبديا خشيته من "تدفّق المئات من الصور والمشاهد الجديدة" على الجمعية والشرطة، من دون أن تتمكن من "معرفة ما إذا كان طفل حقيقي يحتاج إلى مساعدة في مكان ما".

ونقل بيان الجمعية عن مديرها العام بالوكالة ديريك راي هيل دعوته أعضاء البرلمان البريطاني إلى تكييف القوانين الحالية "مع العصر الرقمي" وأدواته التي تتطور باستمرار.