تنظيم الذكاء الاصطناعي: نداء عاجل لتجنب الكوارث المحتملة
بوابة الذكاء الاصطناعي - وحدة المتابعة
حذّرت شركة أنثروبيك من المخاطر المحتملة لأنظمة الذكاء الاصطناعي، داعيةً إلى وضع تنظيمات مُحكمة لتجنب الكوارث المحتملة. وترى الشركة أن التنظيم المُستهدف ضروريٌّ لتحقيق منافع الذكاء الاصطناعي مع التخفيف من مخاطره.
مع تطور قدرات أنظمة الذكاء الاصطناعي في مجالات الرياضيات والمنطق و البرمجة، يزداد احتمال إساءة استخدامها في مجالات مثل الأمن السيبراني، بل وحتى في المجالات البيولوجية والكيميائية.
وتُحذّر أنثروبيك من أن الأشهر الـ 18 المقبلة حرجةٌ لصناع القرار لاتخاذ إجراءات، حيث تضيق نافذة الوقاية الاستباقية. ويُبرز فريق “فرونتير ريد” التابع لأنثروبيك كيف يمكن للنماذج الحالية بالفعل المساهمة في العديد من مهام الهجوم السيبراني، ويتوقع أن تكون النماذج المستقبلية أكثر فعالية.
ومن دواعي القلق بشكل خاص إمكانية تفاقم إساءة استخدام المواد الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) بواسطة أنظمة الذكاء الاصطناعي. وقد وجد معهد سلامة الذكاء الاصطناعي في المملكة المتحدة أن العديد من نماذج الذكاء الاصطناعي يمكنها الآن مطابقة خبرة البشر على مستوى الدكتوراه في تقديم إجابات على الاستفسارات العلمية.
ولمعالجة هذه المخاطر، فصّلت أنثروبيك سياستها للتوسع المسؤول (RSP) التي أُصدرت في سبتمبر 2023 كإجراء مضاد قوي. وتُلزم سياسة RSP بزيادة تدابير السلامة والأمن بما يتناسب مع تطور قدرات الذكاء الاصطناعي.
ويهدف إطار RSP إلى أن يكون مُتكيفًا وتكراريًا، مع إجراء تقييمات منتظمة لنماذج الذكاء الاصطناعي للسماح بتحسين بروتوكولات السلامة في الوقت المناسب. وتقول أنثروبيك إنها ملتزمة بالحفاظ على وتعزيز السلامة عبر توسيع فرق العمل المختلفة، خاصةً في قطاعات الأمن، وقابلية الفهم، والثقة، لضمان الجاهزية لمعايير السلامة الصارمة التي حددتها RSP.
وتعتقد أنثروبيك أن تبني سياسات RSP على نطاق واسع في صناعة الذكاء الاصطناعي، على الرغم من طابعها التطوعي في المقام الأول، أمرٌ ضروريٌّ لمعالجة مخاطر الذكاء الاصطناعي.
يُعد التنظيم الشفاف والفعال أمرًا بالغ الأهمية لإطمئنان المجتمع إلى التزام شركات الذكاء الاصطناعي بوعودها المتعلقة بالسلامة. ولكن يجب أن تكون الأطر التنظيمية استراتيجية، لتحفيز ممارسات السلامة السليمة دون فرض أعباء غير ضرورية.
وتتصور أنثروبيك تنظيمات واضحة، ومركزة، وقابلة للتكيف مع المشهد التكنولوجي المتطور، مُشددةً على أهميتها في تحقيق التوازن بين التخفيف من المخاطر وتعزيز الابتكار.
وفي الولايات المتحدة، تقترح أنثروبيك أن التشريع الاتحادي قد يكون الحل الأمثل لتنظيم مخاطر الذكاء الاصطناعي – على الرغم من أن المبادرات التي تقودها الولايات قد تحتاج إلى التدخل إذا تأخر العمل الاتحادي. يجب أن تسمح الأطر التشريعية التي تضعها البلدان في جميع أنحاء العالم بالتوحيد والاعتراف المتبادل لدعم أجندة عالمية لسلامة الذكاء الاصطناعي، مما يقلل من تكلفة الامتثال للوائح عبر المناطق المختلفة.
علاوة على ذلك، تتناول أنثروبيك الشكوك تجاه فرض اللوائح – مُشددةً على أن اللوائح الواسعة النطاق التي تركز على حالات الاستخدام ستكون غير فعالة لأنظمة الذكاء الاصطناعي العامة، التي لها تطبيقات متنوعة. بدلاً من ذلك، يجب أن تستهدف اللوائح الخصائص الأساسية وتدابير السلامة لنماذج الذكاء الاصطناعي.
وبينما تغطي المخاطر الواسعة، تُقر أنثروبيك بأن بعض التهديدات الفورية – مثل مقاطع الفيديو المُزيّفة العميقة – ليست محور مقترحاتها الحالية، نظرًا لأن مبادرات أخرى تتناول هذه القضايا الأقرب.
وفي النهاية، تُشدد أنثروبيك على أهمية وضع لوائح تُحفز الابتكار بدلاً من إخماده. ويمكن تقليل عبء الامتثال الأولي، على الرغم من أنه حتمي، من خلال اختبارات سلامة مرنة ومصممة بعناية. ويمكن للتنظيم السليم أن يساعد حتى في حماية المصالح الوطنية والابتكار في القطاع الخاص من خلال تأمين الملكية الفكرية ضد التهديدات الداخلية والخارجية.
من خلال التركيز على المخاطر المقاسة تجريبيًا، تخطط أنثروبيك لمناظر تنظيمية لا تُميّز ضد النماذج مفتوحة المصدر أو مغلقة المصدر، ولا تُفضّل أحدهما على الآخر. ويبقى الهدف واضحًا: إدارة المخاطر الكبيرة لنماذج الذكاء الاصطناعي المتقدمة من خلال تنظيم دقيق وقابل للتكيف.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي