برامج وتطبيقاتبوت وروبوت

مذكرة الأمن القومي الأمريكية: الذكاء الاصطناعي بين الريادة الأمريكية والأمن العالمي

 بوابة الذكاء الاصطناعي - وحدة المتابعة 

ويشير خبراء الأمن إلى أن هذه الآثار بدأت بالفعل في الظهور. فكما تقول ميليسا روزي، مديرة الذكاء الاصطناعي في شركة AppOmni: “للذكاء الاصطناعي بالفعل آثار على الأمن القومي، فنحن نعلم أن المزيد والمزيد من المهاجمين يستخدمون الذكاء الاصطناعي لشن هجمات أكبر حجماً وأكثر تعقيداً، خاصةً في مجالي الهندسة الاجتماعية ونشر المعلومات المضللة”.

وتحدد المذكرة ثلاثة أهداف رئيسية: ترسيخ الريادة الأمريكية في تطوير أنظمة ذكاء اصطناعي آمنة، واستغلال تقنيات الذكاء الاصطناعي لتعزيز الأمن القومي، وتعزيز أطر الحوكمة الدولية. وتشدد المذكرة على ضرورة حماية الابتكارات الأمريكية في مجال الذكاء الاصطناعي باعتبارها “أولوية استخباراتية عليا”، في ظل سعي المنافسين الدوليين للسيطرة على هذا المجال.

وتُعين المذكرة رسمياً معهد سلامة الذكاء الاصطناعي (AI Safety Institute) كجهة اتصال رئيسية للحكومة مع قطاع الذكاء الاصطناعي. وسيضم هذا المعهد خبراء تقنيين، وسيُقيم شراكات وثيقة مع وكالات الأمن القومي، بما في ذلك مجتمع الاستخبارات، ووزارة الدفاع، ووزارة الطاقة.

وتُشير روزي إلى أن “الإجراءات المذكورة في المذكرة تمثل نقاط انطلاق رائعة للحصول على صورة جيدة عن الوضع الراهن، وجمع معلومات كافية لاتخاذ القرارات بناءً على البيانات، بدلاً من التسرع في اتخاذ القرارات بناءً على افتراضات غامضة”. لكنها تحذر من أن “البيانات التي يجب جمعها حول هذه الإجراءات ليست بسيطة، وحتى مع وجود البيانات، ستكون هناك حاجة إلى افتراضات وتسويات لاتخاذ القرارات النهائية. ويتمثل التحدي الأكبر في اتخاذ القرارات بعد جمع البيانات”.

وفي خطوة لتعزيز البحث في مجال الذكاء الاصطناعي، تُعزز المذكرة الدعم لبرنامج الموارد الوطنية للبحوث في مجال الذكاء الاصطناعي. ويهدف هذا البرنامج إلى توسيع نطاق قدرات البحث في مجال الذكاء الاصطناعي لتشمل الجامعات، ومنظمات المجتمع المدني، والشركات الصغيرة، بخلاف الشركات التكنولوجية الكبرى.

وتُقدم المذكرة أيضاً إطاراً لتعزيز حوكمة الذكاء الاصطناعي وإدارة المخاطر في الأمن القومي، يضع مبادئ توجيهية شاملة لتنفيذ الذكاء الاصطناعي في تطبيقات الأمن القومي. وتنص هذه المبادئ التوجيهية على إجراءات تقييم المخاطر الصارمة، والضمانات ضد انتهاكات الخصوصية، والتحيز، والتمييز، وانتهاكات حقوق الإنسان.

وتُشدد روزي على أهمية الاعتبارات الأمنية، قائلةً: “يُعدّ الأمن السيبراني للذكاء الاصطناعي أمراً بالغ الأهمية – فنحن نعلم أنه إذا تم تهيئة الذكاء الاصطناعي بشكل خاطئ، فقد يُشكل مخاطر مماثلة لمخاطر تهيئة التطبيقات البرمجية كخدمة (SaaS) بشكل خاطئ، مما يؤدي إلى تعريض البيانات السرية للخطر”.

وعلى الصعيد الدولي، تبني المذكرة على الإنجازات الدبلوماسية الأخيرة، بما في ذلك مدونة قواعد السلوك الدولية بشأن الذكاء الاصطناعي من مجموعة السبع، والاتفاقات التي تم التوصل إليها في قمتي بليتشلي وسول لسلامة الذكاء الاصطناعي. وقد أيد 56 دولة الإعلان السياسي الذي تقوده الولايات المتحدة بشأن الاستخدام العسكري للذكاء الاصطناعي والاستقلالية.

كما حققت إدارة بايدن انتصاراً دبلوماسياً مع إقرار أول قرار من الجمعية العامة للأمم المتحدة بشأن الذكاء الاصطناعي، والذي حظي بتأييد بالإجماع، بما في ذلك المشاركة في رعايته من قبل الصين.

وتُشدد المذكرة على الدور المهم لتصنيع أشباه الموصلات في تطوير الذكاء الاصطناعي، مرتبطةً بقانون رقائق أشباه الموصلات (CHIPS Act) الذي أصدره بايدن سابقاً. وتوجّه المذكرة اتخاذ إجراءات لتعزيز أمن وتنوع سلسلة توريد الرقائق، مما يضمن الريادة الأمريكية في البنية التحتية الحاسوبية المتقدمة.

وتُشكل هذه المبادرة الأخيرة جزءاً من استراتيجية إدارة بايدن-هاريس الأوسع نطاقاً للابتكار المسؤول في قطاع الذكاء الاصطناعي، معززةً التزام أمريكا بالحفاظ على ريادتها التكنولوجية مع التمسك بالقيم الديمقراطية وحقوق الإنسان.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى