برامج وتطبيقاتتقارير ومتابعات

الاتحاد الأوروبي يضع معايير عالمية للذكاء الاصطناعي: بين الابتكار والمخاطر

بوابة الذكاء الاصطناعي - وحدة المتابعة

يشكل صياغة الاتحاد الأوروبي “مدونة قواعد السلوك” للذكاء الاصطناعي متعدد الأغراض لحظةً فارقةً في تنظيم الذكاء الاصطناعي الأوروبي، ومعياراً عالمياً لإدارة الابتكار والمخاطر. ويقف في قلب هذه المبادرة أكاديميون رائدون، من بينهم خبير الذكاء الاصطناعي الرائد يوشوا بنجيو، مكلفين بصياغة إطار عمل يوازن بين الشفافية والسلامة والابتكار. ويُظهر تشكيل الأكاديميين، من أساتذة متمرسين إلى مرشحي الدكتوراه، رغبة الاتحاد الأوروبي في ترسيخ تنظيم الذكاء الاصطناعي لديه على أساس خبرة تقنية وقانونية عميقة.

لكن، وعلى الرغم من دقة هذا الجهد، لا تزال هناك تساؤلات حول توقيته وشموليته، حيث تُظهر الأصوات الناقدة من القطاع الصناعي والمجتمع المدني بالفعل علامات على التباين. لن يشهد قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي، والذي يعتمد بشكل كبير على مدونة قواعد السلوك هذه، معايير نهائية قبل عام 2026. وبالتالي، تحمل هذه الفترة الانتقالية، التي يشرف عليها رؤساء الأكاديميين، وزناً هائلاً.

وفي حين أن وجود شخصيات عالمية في مجال الذكاء الاصطناعي مثل بنجيو يؤكد على أهمية المدونة، فإن توقيت تعيينهم، مباشرة بعد تدخل البرلمان، يترك طعمًا مُرًا بعض الشيء. كان من الممكن أن يستفيد هذا الإجراء من الشفافية المبكرة، حيث يعكس “الأسف” الذي عبر عنه مستشارو السياسات الرقمية مخاوف أوسع نطاقًا بشأن تراكم العمل البيروقراطي. لكن لا شك في القوة الفكرية المُجمعة هنا: يمثل مزيج من خبراء الذكاء الاصطناعي، والخبراء القانونيين، وخبراء الحوكمة رهان الاتحاد الأوروبي على بناء مستقبل للذكاء الاصطناعي آمن ومركز على الإنسان.

ومع ذلك، فإن الطريق المُقبل وعِر. وقد كشف الاجتماع العام الأول، الذي حضره ما يقرب من 1000 من أصحاب المصلحة، عن نقاط الخلاف العميقة بين مقدمي الذكاء الاصطناعي متعدد الأغراض – مثل مُنشئي ChatGPT – والمشاركين الآخرين. وقد دفع الأخيرون، الذين يشملون المجتمع المدني والأوساط الأكاديمية، بقوة من أجل الشفافية الصارمة بشأن مجموعات البيانات التدريبية، ودعم تضمين المحتوى المرخص، والبيانات المفتوحة، وحتى المواد المُستخرجة من الويب. ومع ذلك، كان مقدمو الذكاء الاصطناعي متعدد الأغراض أقل حماسًا بشكل ملحوظ، مترددين في مطالب الكشف عن المزيد من البيانات، خاصةً عندما يتعلق الأمر بمجموعات البيانات المفتوحة. ويُظهر تفضيلهم للشفافية الذاتية للبيانات، بدلاً من عمليات التدقيق من جهات خارجية، احتكاكًا بين الاستقلالية المُحفزة للابتكار والمساءلة المُفرضة من خلال التنظيم.

بينما يدعم الأكاديميون والمجتمع المدني تقييم المخاطر ومسارات التدقيق الصارمة، يتجنب المزودون التدابير التي يرونها مُشددة للغاية. ربما يكون هذا هو التوتر الأساسي لمدونة قواعد السلوك للذكاء الاصطناعي متعدد الأغراض: هل يمكن للإطار أن يُحفز تطوير الذكاء الاصطناعي المتطور ويُلبي دعوة الجمهور إلى الضمانات الأخلاقية؟ يُظهر استشارة المفوضية الأوروبية المُستمرة أن معركة التوصل إلى حل وسط لا تزال في مراحلها الأولى. مع جمع أكثر من 430 ردًا بالفعل، هناك خطر ملموس من أن تُعرقل التنوع الهائل للآراء التقدم، وهو احتمال يُردد من قبل المقربين من عملية الصياغة.

يبدو إنشاء مدونة قواعد السلوك هذه وكأنه عمل توازن عالي المخاطر. من ناحية، هناك ضغط لحماية ضد طبيعة “الصندوق الأسود” للذكاء الاصطناعي، وضمان الشفافية والمسؤولية. وعلى العكس من ذلك، يجب أن يظل الاتحاد الأوروبي مُنافسًا في مجال الذكاء الاصطناعي، وعدم تقييد مُبتكرينه بقيود مُفرطة. المخاطر لا يمكن أن تكون أعلى من ذلك. كما يقول بنجيو، يجب أن تتحمل هذه المدونة اختبار الزمن، وأن لا تُراقب عن كثب من قبل أوروبا فقط.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى