فعاليات ومتابعاتبوت وروبوت

اتفاق تاريخي بشأن معاهدة مجلس أوروبا للذكاء الاصطناعي

بوابة الذكاء الاصطناعي - وحدة المتابعة

ركزت عملية التفاوض، التي أجريت بشكل أساسي بين المفوضية الأوروبية ووفد الولايات المتحدة، بشكل مكثف على تحديد نطاق الاتفاقية. وكان السبب الرئيسي للتوتر هو محاولة الولايات المتحدة استبعاد القطاع الخاص من معاهدة الذكاء الاصطناعي. ولاحظ أن اجتماعًا عامًا عقد في وقت متأخر من المساء لمناقشة القضايا المثيرة للجدل.

النطاق والتغطية
تشمل الاتفاقية الأنشطة على مدار دورة حياة نظام الذكاء الاصطناعي التي تمتلك القدرة على التأثير في حقوق الإنسان والديمقراطية وسيادة القانون. ومع ذلك، ينطبق ذلك حصرًا على الإجراءات التي تقوم بها الكيانات العامة والجهات الخاصة التي تعمل نيابة عنها.

معالجة المخاطر الناجمة عن الجهات الخاصة
تلتزم الدول المشاركة بإدارة المخاطر والآثار الناجمة عن الجهات الخاصة غير المنتسبة إلى القطاع العام وفقًا لأهداف الاتفاقية. عند التوقيع على الاتفاقية أو تصديقها، يجب على الدول أن تعلن نواياها بشأن تطبيق الالتزامات على الجهات الخاصة أو اتخاذ تدابير بديلة.

مرونة في الاتفاقية
تحتفظ الدول بالمرونة لتعديل إعلاناتها في أي وقت. وهذا يتيح إجراء تعديلات على الالتزامات، مما يتيح للدول القدرة على تكييف موقفها حسب الحاجة.

قيود على الأمن القومي
على الرغم من أن الاتفاقية تمتد لتشمل جوانب مختلفة من حوكمة الذكاء الاصطناعي، إلا أن هناك بعض القيود المتعلقة بمصالح الأمن القومي. وليست هناك التزامات للدول بتطبيق الاتفاقية على الأنشطة المتعلقة بحفظ الأمن القومي. ومع ذلك، يجب أن تتوافق هذه الأنشطة مع القانون الدولي والعممارسات العملية الديمقراطية.

انتقادات
على الرغم من أهميتها التاريخية، يعتبر البعض أن الاتفاقية لا تحقق التأثير المرجو منها. تم توجيه مخاوف بشأن فعالية الاتفاقية، مع اقتراحات تشير إلى أنها تعيد تأكيد الممارسات القائمة بدلاً من إدخال تدابير تنظيمية جوهرية. قبل بضعة أيام فقط، أعرب مراقب البيانات في الاتحاد الأوروبي عن مخاوف بشأن التنازلات المحتملة في معايير حقوق الإنسان نتيجة للضغوط من مصالح الأعمال الأجنبية. يعتقد مراقب البيانات الأوروبي أن الاقتراح لا يذهب بما فيه الكفاية في معالجة المخاطر والتحديات التي يطرحها تطوير الذكاء الاصطناعي. تم ضعف النص بشكل كبير عن نسخته الأصلية خلال التفاوض في اللجنة الفرعية لمجلس أوروبا المسؤولة عن الاتفاقية. ووصف مراقب البيانات الأوروبي ذلك بأنه “فرصة ضائعة لوضع إطار قانوني قوي وفعال” لحماية حقوق الإنسان في تطوير الذكاء الاصطناعي.

ماذا بعد؟
وفقًا للجدول الزمني الأولي، ستُعرض الاتفاقية للتصويت في اجتماع وزاري في مايو 2024.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

 

 

مقالات ذات صلة

زر الذهاب إلى الأعلى