بريطانيا توقع معاهدة سلامة الذكاء الاصطناعي لحماية حقوق الإنسان والديمقراطية
بوابة الذكاء الاصطناعي - وحدة المتابعة
وقّعت المملكة المتحدة معاهدة رائدة لسلامة الذكاء الاصطناعي تهدف إلى حماية حقوق الإنسان والديمقراطية وسيادة القانون من التهديدات المحتملة التي تشكلها هذه التكنولوجيا.
وقّعت لورد المستشار شابانا محمود اتفاقية الذكاء الاصطناعي لمجلس أوروبا اليوم كجزء من نهج عالمي موحد لإدارة المخاطر والفرص.
قالت لورد المستشار محمود: “للذكاء الاصطناعي القدرة على تحسين استجابة وفعالية الخدمات العامة بشكل جذري، ودفع النمو الاقتصادي”.
“ومع ذلك، يجب ألا نسمح للذكاء الاصطناعي بتشكيلنا – يجب أن نشكل الذكاء الاصطناعي. تُعد هذه الاتفاقية خطوة رئيسية لضمان إمكانية تسخير هذه التقنيات الجديدة دون تقويض قيمنا القديمة، مثل حقوق الإنسان وسيادة القانون.”
تعترف المعاهدة بفوائد الذكاء الاصطناعي المحتملة – مثل قدرته على زيادة الإنتاجية وتحسين الرعاية الصحية – مع معالجة المخاوف المتعلقة بالمعلومات الخاطئة والتحيز الخوارزمي وخصوصية البيانات في نفس الوقت. ستُلزم الدول الموقعة على المعاهدة بمراقبة تطوير الذكاء الاصطناعي، وتنفيذ لوائح صارمة، ومكافحة أي استخدام خاطئ للتكنولوجيا من شأنه أن يضر بالخدمات العامة أو الأفراد.
علق كيرون هوليوم، نائب رئيس المملكة المتحدة وأسواق ناشئة في BlackBerry: “للتغلب على المجرمين الإلكترونيين حقًا والحفاظ على ميزة دفاعية، يجب إنشاء أطر عمل قوية لإدارة الذكاء الاصطناعي والمعايير الأخلاقية، مما يضمن الاستخدام المسؤول ويخفف من المخاطر”.
“تُعد أول معاهدة دولية ملزمة قانونيًا للذكاء الاصطناعي خطوة أخرى نحو مثل هذه التوصيات لكل من الحذر من الذكاء الاصطناعي وتطبيقاته الجيدة. سيكون التعاون بين الحكومات وقادة الصناعة والأوساط الأكاديمية ضروريًا بشكل متزايد لتبادل المعرفة وتطوير أفضل الممارسات والاستجابة للتهديدات الناشئة بشكل جماعي.”
من المهم ملاحظة أن الاتفاقية تعمل كإطار لتعزيز التشريعات الحالية في المملكة المتحدة. على سبيل المثال، سيتم تعزيز جوانب من قانون السلامة عبر الإنترنت لمعالجة مخاطر استخدام أنظمة الذكاء الاصطناعي لبيانات متحيزة لإنشاء نتائج غير عادلة بشكل أفضل.
تركز الاتفاقية على ثلاثة ضمانات رئيسية:
- حماية حقوق الإنسان: ضمان استخدام بيانات الأفراد بشكل مسؤول، واحترام خصوصيتهم، وخلو أنظمة الذكاء الاصطناعي من التمييز.
- حماية الديمقراطية: مطالبة الدول باتخاذ خطوات استباقية لمنع استخدام الذكاء الاصطناعي لتقويض المؤسسات العامة والعمليات الديمقراطية.
- حماية سيادة القانون: فرض التزام على الدول الموقعة بإنشاء لوائح صارمة محددة للذكاء الاصطناعي، وحماية مواطنيها من الأضرار المحتملة، وضمان نشر الذكاء الاصطناعي المسؤول.
بينما تركز الاتفاقية في البداية على أعضاء مجلس أوروبا، يتم دعوة دول أخرى – بما في ذلك الولايات المتحدة وأستراليا – للانضمام إلى هذا الجهد الدولي لضمان تطوير ونشر الذكاء الاصطناعي المسؤول.
علق بيتر كايل، وزير الدولة للعلوم والابتكار والتكنولوجيا: “يحمل الذكاء الاصطناعي إمكانات هائلة ليكون القوة الدافعة وراء النمو الاقتصادي الجديد، وثورة الإنتاجية، وتحول حقيقي في خدماتنا العامة، لكن لا يمكن تحقيق هذا الطموح إلا إذا كان الناس لديهم ثقة واطمئنان في الابتكارات التي ستحقق هذا التغيير.”
“ستكون الاتفاقية التي وقعناها اليوم إلى جانب شركاء عالميين هي مفتاح هذا الجهد. بمجرد دخولها حيز التنفيذ، ستعزز بشكل أكبر حماية حقوق الإنسان وسيادة القانون والديمقراطية – مما يعزز نهجنا المحلي للتكنولوجيا مع تعزيز القضية العالمية للذكاء الاصطناعي الآمن والمؤمن والمسؤول.”
تعهدت حكومة المملكة المتحدة بالتعاون الوثيق مع المنظمين المحليين والإدارات المنفصلة والسلطات المحلية لضمان التنفيذ السلس لمتطلبات المعاهدة بمجرد التصديق عليها.
يُعد توقيع الاتفاقية بناءً على الجهود السابقة للمملكة المتحدة في مجال الذكاء الاصطناعي المسؤول من خلال استضافة قمة سلامة الذكاء الاصطناعي واستضافة قمة الذكاء الاصطناعي في سيول، بالإضافة إلى إنشاء أول معهد لسلامة الذكاء الاصطناعي في العالم.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي