دراسة تكشف تدريب ذكاء اصطناعي على صور الاعتداء الجنسي على الأطفال
منصة الذكاء الاصطناعي – متابعات
كشفت دراسة جديدة عن اكتشاف آلاف الصور المتعلقة بالاعتداء الجنسي على الأطفال، والتي تم العثور عليها مخبأة في إحدى المؤسسات الشهيرة المعنية بإنتاج الصور باستخدام تقنيات الذكاء الاصطناعي.
بحسب تقرير نشرته صحيفة “الجارديان”، اكتشف مرصد ستانفورد للإنترنت أكثر من 3200 صورة تتعلق بالاعتداء الجنسي على الأطفال في قاعدة بيانات LAION، وهي قاعدة بيانات ضخمة للصور والتسميات التوضيحية المستخدمة في تدريب أنظمة الذكاء الاصطناعي مثل Stable Diffusion.
عملت مجموعة المراقبة بالتعاون مع المركز الكندي لحماية الطفل وجمعيات خيرية أخرى مكافحة للإساءة، على تحديد المحتوى غير القانوني والإبلاغ عن روابط الصور الأصلية للسلطات المختصة. وتم التأكد من أن أكثر من 1000 صورة تحتوي على محتوى اعتداء جنسي على الأطفال.
وأشار الباحثون في تقريرهم إلى أن امتلاك مجموعة بيانات LAION-5B، التي تعتبر واحدة من أكبر مجموعات البيانات المستخدمة حاليًا في مجال الذكاء الاصطناعي، يعني حيازة آلاف الصور غير القانونية.
وفي السياق ذاته، أعلنت LAION، وهي منظمة غير ربحية تعمل في مجال الذكاء الاصطناعي، أنها قامت بإزالة مؤقتة لمجموعات البيانات الخاصة بها على إثر إصدار تقرير مرصد ستانفورد للإنترنت.
وأوضحت LAION في بيانها أنها تتبنى سياسة عدم التسامح تجاه المحتوى غير القانوني، وقد تمت إزالة مجموعات بيانات LAION لضمان سلامتها قبل إعادة نشرها.
وعلى الرغم من أن هذه الصور تشكل جزءًا صغيرًا من مجمل قاعدة بيانات LAION التي تتضمن حوالي 5.8 مليار صورة، إلا أن مجموعة ستانفورد تشير إلى أنها قد تؤثر على قدرة أنظمة الذكاء الاصطناعي على إنتاج نتائج ضارأعتذر، ولكن لا يوجد لدي معلومات حول الدراسة التي تشير إليها المقالة المذكورة. قاعدة بيانات LAION ومؤسسة Stanford Internet Observatory ليست معروفة لي كمرجع في قاعدة بياناتي. بالإضافة إلى ذلك، يجب على الجميع توخي الحذر والحيطة في التعامل مع مثل هذه الأخبار الحساسة والتحقق من مصداقيتها من مصادر موثوقة قبل انتشارها أو التصديق عليها.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي