بوت وروبوتبرامج وتطبيقات

نداء من مركز المرونة الدائمة لإنشاء نظام الإبلاغ عن حوادث الذكاء الاصطناعي

 بوابة الذكاء الاصطناعي - وحدة المتابعة 

دعا مركز المرونة الدائمة (CLTR) في بريطانيا إلى إنشاء نظام شامل للإبلاغ عن الحوادث لمعالجة الثغرة الحرجة في خطط تنظيم الذكاء الاصطناعي بشكل عاجل.

ووفقًا لـ CLTR، فإن الذكاء الاصطناعي لديه تاريخ من الفشل بطرق غير متوقعة، مع تسجيل أكثر من 10,000 حادث أمان من قبل وسائل الإعلام في أنظمة الذكاء الاصطناعي المنتشرة منذ عام 2014. وبتزايد تكامل الذكاء الاصطناعي في المجتمع، فإن تكرار ومدى هذه الحوادث من المرجح أن يزداد.

ويرى مركز الأبحاث أن نظام عمل جيد للإبلاغ عن الحوادث أمر حيوي لتنظيم فعال للذكاء الاصطناعي، مع التوازي مع الصناعات الحرجة للسلامة مثل الطيران والطب. وتؤيد هذا الرأي توافق واسع من الخبراء، بالإضافة إلى حكومتي الولايات المتحدة والصين والاتحاد الأوروبي.

ويحدد التقرير ثلاثة فوائد رئيسية لتنفيذ نظام للإبلاغ عن الحوادث:

  • رصد مخاطر السلامة الواقعية للذكاء الاصطناعي لإعلام التعديلات التنظيمية
  • التنسيق الفوري للاستجابة للحوادث الكبرى والتحقيق في الأسباب الجذرية
  • تحديد التحذيرات المبكرة من احتمال حدوث أضرار كبيرة في المستقبل

وفي الوقت الحالي، يفتقر تنظيم الذكاء الاصطناعي في المملكة المتحدة إلى إطار فعال للإبلاغ عن الحوادث. وتترك هذه الثغرة وزارة العلوم والابتكار والتكنولوجيا (DSIT) بدون رؤية على مختلف الحوادث الحرجة، بما في ذلك:

  • مشكلات مع نماذج أساسية عالية القدرة
  • حوادث من استخدام الحكومة البريطانية للذكاء الاصطناعي في الخدمات العامة
  • إساءة استخدام أنظمة الذكاء الاصطناعي لأغراض خبيثة
  • الأضرار الناجمة عن مرافقي الذكاء الاصطناعي والمعلمين والمعالجين النفسيين

وتحذر CLTR من أنه بدون نظام ملائم للإبلاغ عن الحوادث، قد تتعلم DSIT عن الأضرار الجديدة من خلال وسائل الإعلام بدلاً من خلال عمليات الإبلاغ المنشأة.

لمعالجة هذه الفجوة، توصي مركز الأبحاث بثلاث خطوات فورية للحكومة البريطانية:

  1. نظام الإبلاغ عن الحوادث الحكومي: إنشاء نظام للإبلاغ عن الحوادث من استخدام الذكاء الاصطناعي في الخدمات العامة. ويمكن أن يكون هذا امتدادًا بسيطًا لمعيار الشفافية الخوارزمية (ATRS) ليشمل حوادث الذكاء الاصطناعي في القطاع العام، مع التغذية إلى هيئة حكومية وربما مشاركتها مع الجمهور للشفافية.
  2. إشراك الجهات التنظيمية والخبراء: تكليف الجهات التنظيمية والتشاور مع الخبراء لتحديد أخطر الثغرات، وضمان التغطية الفعالة للحوادث ذات الأولوية وفهم احتياجات أصحاب المصلحة لنظام وظيفي.
  3. بناء قدرات DSIT: تطوير قدرة DSIT على رصد وتحقيق والاستجابة للحوادث، ربما من خلال قاعدة بيانات تجريبية لحوادث الذكاء الاصطناعي. وسيشكل ذلك جزءًا من الوظيفة المركزية لـ DSIT، مع التركيز في البداية على أخطر الثغرات ولكن التوسع في النهاية ليشمل جميع التقارير من الجهات التنظيمية البريطانية.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى