قانون الذكاء الاصطناعي الأوروبي: العد التنازلي للالتزام
بوابة الذكاء الاصطناعي - وحدة المتابعة

يبدأ سريان قانون الذكاء الاصطناعي الأوروبي (AI Act) في الأول من أغسطس 2024، بعد نشره رسميًا في الجريدة الرسمية للاتحاد الأوروبي. يهدف القانون إلى تنظيم استخدام الذكاء الاصطناعي بأمان وتعزيز الاستثمار والابتكار في جميع أنحاء دول الاتحاد الأوروبي.
ينطبق هذا القانون على المنظمات العالمية التي توفر أو تنشر أو توزع منتجات أو خدمات أو ابتكارات قائمة على الذكاء الاصطناعي متاحة لمواطني الاتحاد الأوروبي. يشبه القانون في نطاقه “اللائحة العامة لحماية البيانات” التي تنطبق على الكيانات في جميع أنحاء العالم إذا كانت تمارس نشاطًا تجاريًا في الاتحاد الأوروبي، حيث يمتد تأثيره عالميًا ويفرض متطلبات جديدة على المنظمات في جميع القطاعات وسلاسل القيمة التي تقوم بتطوير أو نشر أو استخدام الذكاء الاصطناعي في الاتحاد الأوروبي.
يُضاف قانون الذكاء الاصطناعي إلى “قانون الخدمات الرقمية” (DSA) الذي تم تطبيقه مؤخرًا في الاتحاد الأوروبي، مما يزيد الضغط على الكيانات لتحسين حماية الأفراد وحقوقهم الأساسية في مجتمع متزايد الرقمنة.
يقول تيم ديفيس، رئيس قسم المخاطر والاستشارات المالية في Deloitte & Touche LLP: “هذه متطلبات واسعة النطاق تنطبق على مقدمي أنظمة الذكاء الاصطناعي خارج الاتحاد الأوروبي إذا كان مخرجات نظام الذكاء الاصطناعي تؤثر على الأشخاص الموجودين في الاتحاد الأوروبي. يُعد القانون علامة فارقة تنظيمية مهمة في قطاع التكنولوجيا، سواء بالنسبة للشركات التي توفر المنصات الرقمية أو للكيانات التي تستخدم تلك المنصات للمساعدة في تقديم سلعها وخدماتها.”
تُقدم هرمية المخاطر المضمنة في القانون دقة كبيرة حول كيفية توقع تقييم الكيانات للمخاطر المتعلقة بالذكاء الاصطناعي، كما يقول موشي أورث، مدير مركز سياسات الاتحاد الأوروبي في Deloitte EMEA. “يُنشئ النهج القائم على المخاطر المتبع في قانون الذكاء الاصطناعي قيودًا متزايدة بشكل تدريجي على الاستخدامات التي يُنظر إليها على أنها تُنتج مخاطر أكبر. يُطلب من قانون الذكاء الاصطناعي تقييم مخاطر وموثوقية نظام الذكاء الاصطناعي طوال دورة حياته بأكملها، من التصميم إلى التقاعد،” يُضيف أورث. “قد تحتاج العديد من الكيانات إلى تطوير ضوابط وإجراءات حوكمة قد لا تكون موجودة بالفعل، حتى بالنسبة لأولئك الذين يعملون في صناعات منظمة للغاية مثل الخدمات المالية أو الرعاية الصحية.”
يُقدم قانون الذكاء الاصطناعي الأوروبي تنفيذًا تدريجيًا مع معالم أساسية كما يلي:
- حظر يبدأ سريانه: يبدأ سريان حظر بعض ممارسات الذكاء الاصطناعي المحددة في المادة 5 من قانون الذكاء الاصطناعي والتي تُعتبر ذات مستويات مخاطر غير مقبولة في 2 فبراير 2025. تشمل هذه الاستخدامات التي قد تؤدي إلى التلاعب بالسلوك البشري والآراء والقرارات؛ تصنيف الأشخاص بناءً على عرقهم أو سلوكهم الاجتماعي؛ وأنظمة التعرف البيومتري عن بعد في الوقت الفعلي في الأماكن العامة لأغراض إنفاذ القانون، باستثناء عدد محدود من الحالات.
- سريان لوائح النماذج متعددة الأغراض: في 2 أغسطس 2025، الذكرى السنوية الأولى لقانون الذكاء الاصطناعي، ستُصبح لوائح النماذج متعددة الأغراض للذكاء الاصطناعي التي تُشكل مخاطر منهجية سارية المفعول. ستكون هذه النماذج خاضعة لمتطلبات مثل تقييم المخاطر والاختبارات العدائية، بالإضافة إلى الإبلاغ عن الحوادث الخطيرة، تحت إشراف مكتب الذكاء الاصطناعي الأوروبي الذي تم إنشاؤه لهذا الغرض. من المتوقع أن تكون رموز الامتثال المتعلقة بهذا المجال من اللوائح متاحة بحلول 1 مايو 2025. قد تبدأ السلطات في فرض عقوبات على عدم الامتثال، على الرغم من أن الغرامات المفروضة على مقدمي أنظمة الذكاء الاصطناعي متعددة الأغراض من المتوقع أن تُؤجل للسماح بالتكيف.
- بدء تطبيق قانون الذكاء الاصطناعي بشكل عام: تم تحديد هذا المعلم في 2 أغسطس 2026، مما يتيح سنتين للمنظمات المتأثرة للتحضير لتنظيم الأنظمة التي تُعتبر ذات مخاطر أعلى بموجب القانون. تشمل هذه الاستخدامات للذكاء الاصطناعي فيما يتعلق بخصائص السلامة، مثل الطيران والمركبات والأجهزة الطبية والألعاب. تشمل التطبيقات عالية المخاطر أيضًا تلك المستخدمة في التعرف البيومتري عن بعد؛ إدارة البنية التحتية الحيوية؛ التعليم؛ التوظيف بما في ذلك إدارة العمال والتعيين؛ الخدمات الخاصة والعامة الأساسية؛ والفوائد مثل أهلية الحصول على القروض أو الرعاية الاجتماعية، وإنفاذ القانون، وإدارة العدالة والعمليات الديمقراطية.
يُلزم قانون الذكاء الاصطناعي بنظام إدارة المخاطر الشامل (RMS) الذي يجب إعداده وتنفيذه وتوثيقه وصيانته بشكل مستمر، كما يقول أورث. “يشمل تحديد وتحليل المخاطر المعروفة والمحتملة التي يمكن أن تُشكلها أنظمة الذكاء الاصطناعي على الصحة أو السلامة أو الحقوق الأساسية.”
يُعد تقدير وتقييم المخاطر عمليات مستمرة، تُدمج البيانات من مراقبة ما بعد التسويق. يجب بعد ذلك اعتماد تدابير إدارة المخاطر المناسبة والموجهة. “على عكس معظم أطر إدارة المخاطر الحالية، يُعالج نظام إدارة المخاطر في قانون الذكاء الاصطناعي المخاطر والعيوب المتعلقة بالحقوق الأساسية وتحيز البيانات، مما يضمن نهجًا أكثر شمولية لسلامة وموثوقية نظام الذكاء الاصطناعي،” يُضيف أورث.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي