نماذج الذكاء الاصطناعي من كبرى الشركات التقنية تفتقر إلى معايير قانون الاتحاد الأوروبي
بوابة الذكاء الاصطناعي - وحدة المتابعة

كشفت دراسة حديثة عن ثغرات كبيرة في امتثال بعض أفضل نماذج الذكاء الاصطناعي للوائح الاتحاد الأوروبي، خاصة فيما يتعلق بمقاومة الأمن السيبراني ومنع النتائج التمييزية. أجرت هذه الدراسة شركة LatticeFlow السويسرية الناشئة بالتعاون مع مسؤولين في الاتحاد الأوروبي، حيث قامت باختبار نماذج الذكاء الاصطناعي التوليدية من شركات تقنية كبرى مثل Meta و OpenAI و Alibaba. وتُعد هذه النتائج جزءًا من محاولة مبكرة لقياس الامتثال لقانون الذكاء الاصطناعي المُقبل من الاتحاد الأوروبي، والذي سيتم تطبيقه تدريجيًا على مدار العامين المقبلين. وتواجه الشركات التي لا تستوفي هذه المعايير غرامات تصل إلى 35 مليون يورو أو 7% من حجم معاملاتها السنوية العالمية.
استخدمت LatticeFlow أداة “Large Language Model (LLM) Checker” لتقييم نماذج الذكاء الاصطناعي عبر فئات متعددة، مُعطيةً درجات تتراوح بين 0 و 1. بينما حصلت العديد من النماذج على درجات محترمة، مثل نموذج “Claude 3 Opus” من Anthropic الذي حصل على درجة 0.89، كشفت نماذج أخرى عن نقاط ضعف. فعلى سبيل المثال، حصل نموذج “GPT-3.5 Turbo” من OpenAI على درجة منخفضة بلغت 0.46 في مجال النتائج التمييزية، وحصل نموذج “Qwen1.5 72B Chat” من Alibaba على درجة أقل بلغت 0.37، مما يُبرز مشكلة استمرار انعكاس التحيزات البشرية في الذكاء الاصطناعي في مجالات مثل الجنس والعرق.
وفي اختبارات الأمن السيبراني، واجهت بعض النماذج أيضًا صعوبات. فقد حصل نموذج “Llama 2 13B Chat” من Meta على درجة 0.42 في فئة “اختراق المُطالبات”، وهو نوع من الهجمات الإلكترونية التي تُستخدم فيها مطالبات خبيثة لاستخراج معلومات حساسة. وحقق نموذج “8x7B Instruct” من Mistral أداءً سيئًا مماثلًا، حيث حصل على درجة 0.38. وتُظهر هذه النتائج الحاجة إلى تعزيز الشركات التقنية لإجراءات الأمن لمواكبة المعايير الصارمة للاتحاد الأوروبي.
وبينما لا يزال الاتحاد الأوروبي يُنهي عملية وضع تفاصيل إنفاذ قانون الذكاء الاصطناعي، المتوقع بحلول عام 2025، يوفر اختبار LatticeFlow خارطة طريق مبكرة للشركات لضبط نماذجها بدقة. وأعرب الرئيس التنفيذي لشركة LatticeFlow، بيتار تسانكوف، عن تفاؤله، مشيرًا إلى أن نتائج الاختبار إيجابية بشكل رئيسي وتُقدم إرشادات للشركات لتحسين امتثال نماذجها للوائح المُقبلة.
وقد رحبت المفوضية الأوروبية، على الرغم من عدم قدرتها على التحقق من الأدوات الخارجية، بهذه المبادرة، واعتبرتها “خطوة أولى” نحو ترجمة قانون الذكاء الاصطناعي إلى متطلبات تقنية قابلة للإنفاذ. ومع استعداد الشركات التقنية للقواعد الجديدة، يُتوقع أن تلعب أداة LLM Checker دورًا مهمًا في مساعدتها على ضمان الامتثال.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي