برامج وتطبيقاتتقارير ومتابعات

بريطانيا بحاجة إلى نظام لتسجيل سوء استخدام الذكاء الاصطناعي وأعطال البرمجيات 

بوابة الذكاء الاصطناعي - وحدة المتابعة

أكد تقرير نشرته الجارديان البريطانية أمس بقلم دان ميلمو، محرر التكنولوجيا العالمية، أن المملكة المتحدة بحاجة إلى نظام لتسجيل سوء استخدام الذكاء الاصطناعي وأعطال البرمجيات، وفقًا لتقرير فكري، وقال ميلمو: إن المملكة المتحدة تحتاج إلى نظام لتسجيل سوء الاستخدام والأعطال في الذكاء الاصطناعي، وإلا قد لا تكون الوزراء على دراية بالحوادث المقلقة المتعلقة بهذه التقنية، وفقًا لتقرير.

ويجب على الحكومة المقبلة إنشاء نظام لتسجيل الحوادث التي تنطوي على الذكاء الاصطناعي في الخدمات العامة، وينبغي عليها أيضًا النظر في إنشاء مركز مركزي لتجميع الحلقات المتصلة بالذكاء الاصطناعي عبر المملكة المتحدة، وفقًا لما ذكره مركز المرونة طويلة الأجل (CLTR)، وهو مركز بحثي.

ويؤكد مركز CLTR، الذي يركز على استجابات الحكومة للأزمات غير المتوقعة والمخاطر الشديدة، على أن نظام الإبلاغ عن الحوادث، مثل النظام الذي تديره هيئة التحقيق في حوادث الطيران (AAIB)، أمر حيوي لاستخدام هذه التقنية بنجاح.

ويشير التقرير إلى 10,000 “حادث أمان للذكاء الاصطناعي” تم تسجيلها من قبل وسائل الإعلام منذ عام 2014، والتي تم إدراجها في قاعدة بيانات أعدتها منظمة التعاون الاقتصادي والتنمية، وهي هيئة بحثية دولية. ويشمل تعريف منظمة التعاون الاقتصادي والتنمية للحادث الضار الناجم عن الذكاء الاصطناعي الأضرار الجسدية والاقتصادية والسمعية والنفسية.

ومن الأمثلة المسجلة في مراقب حوادث سلامة الذكاء الاصطناعي التابع لمنظمة التعاون الاقتصادي والتنمية صورة مزيفة للقائد العمالي كير ستارمر يُزعم أنه يسيء إلى موظفي الحزب، وموديل جيميني لشركة جوجل الذي يصور جنود الحرب العالمية الثانية الألمان على أنهم أشخاص من ذوي البشرة الملونة، والحوادث المرتبطة بالسيارات ذاتية القيادة، وخطة رجل لاغتيال الملكة المتوفاة التي تلقى فيها تشجيعًا من شاتبوت.

وقال تومي شافر شين، مدير السياسات في مركز CLTR وكاتب التقرير: “لعب الإبلاغ عن الحوادث دورًا متحولاً في تخفيف المخاطر وإدارتها في الصناعات الحرجة من حيث السلامة مثل الطيران والطب. ولكن هذا الأمر غائب إلى حد كبير من المشهد التنظيمي الذي يتم تطويره للذكاء الاصطناعي. وهذا ما يجعل الحكومة البريطانية عمياء تجاه الحوادث الناشئة من استخدام الذكاء الاصطناعي، مما يعوق قدرتها على الاستجابة”.

وأوصى مركز CLTR بأن تتبع الحكومة البريطانية مثال الصناعات التي تعتبر السلامة قضية حاسمة فيها، مثل الطيران والطب، وتقديم “نظام إبلاغ عن الحوادث جيد الأداء”. وقال مركز CLTR إن العديد من حوادث الذكاء الاصطناعي ربما لن تكون مشمولة بهيئات الرقابة البريطانية لأنه لا يوجد جهاز رقابي مركزي يركز على أنظمة الذكاء الاصطناعي المتقدمة مثل الشات بوتس ومولدات الصور. وتعهدت حزب العمال بإدخال تنظيم ملزم على أكثر شركات الذكاء الاصطناعي تقدمًا.

وأضاف المركز أن مثل هذا الإعداد سيوفر رؤى سريعة حول كيفية تعطل الذكاء الاصطناعي، وسيساعد الحكومة على توقع حوادث مماثلة في المستقبل. كما أضاف أن الإبلاغ عن الحوادث سيساعد في تنسيق الاستجابات للحوادث الخطيرة التي يكون فيها سرعة الاستجابة أمرًا بالغ الأهمية، وتحديد علامات أولية للأضرار الواسعة النطاق التي قد تحدث في المستقبل.

وذكر المركز أن بعض النماذج قد لا تظهر الأضرار إلا بعد إطلاقها بالكامل، على الرغم من اختبارها من قبل معهد سلامة الذكاء الاصطناعي في المملكة المتحدة.

 هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي 

مقالات ذات صلة

زر الذهاب إلى الأعلى