أداة جديدة لقياس مخاطر نماذج الذكاء الاصطناعي
بوابة الذكاء الاصطناعي - وحدة المتابعة
أعلن المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) عن إعادة إطلاق أداة Dioptra، المصممة لقياس مخاطر نماذج الذكاء الاصطناعي، خاصة من هجمات تسميم البيانات.
تهدف الأداة، التي تم إطلاقها لأول مرة في عام 2022، إلى مساعدة الشركات والأفراد على تقييم وتحليل مخاطر الذكاء الاصطناعي. ويمكن استخدامها لمعايرة نماذج الذكاء الاصطناعي، والبحث فيها، وعرضها على تهديدات محاكاة، مما يوفر منصة مشتركة لهذه الأنشطة.
وقد وضع NIST أداة Dioptra لدعم الوكالات الحكومية والشركات في تقييم ادعاءات أداء أنظمة الذكاء الاصطناعي. ويتزامن إطلاق الأداة مع وثائق جديدة من NIST ومعهد سلامة الذكاء الاصطناعي، والتي تحدد طرقًا للتخفيف من المخاطر المتعلقة بالذكاء الاصطناعي، بما في ذلك إنشاء صور إباحية غير مرغوب فيها.
ويُعد هذا الجهد جزءًا من شراكة أوسع بين الولايات المتحدة والمملكة المتحدة لتطوير اختبار نماذج الذكاء الاصطناعي، والتي تم الإعلان عنها في قمة سلامة الذكاء الاصطناعي بالمملكة المتحدة العام الماضي.
يتماشى تطوير أداة Dioptra مع الأمر التنفيذي للرئيس جو بايدن بشأن الذكاء الاصطناعي، الذي يفرض اختبارًا شاملاً لأنظمة الذكاء الاصطناعي وإنشاء معايير السلامة والأمان. وتُطلب من الشركات التي تُطور نماذج الذكاء الاصطناعي، مثل Apple، إخطار الحكومة الفيدرالية ومشاركة نتائج اختبارات السلامة قبل نشرها للجمهور.
على الرغم من قدراتها، فإن أداة Dioptra لها بعض القيود. فهي تعمل فقط مع النماذج التي يمكن تنزيلها واستخدامها محليًا، مثل عائلة Llama المتنامية من Meta. أما النماذج التي يمكن الوصول إليها فقط عبر واجهة برمجة التطبيقات، مثل GPT-4 من OpenAI، فهي غير متوافقة حاليًا.
ومع ذلك، يقترح NIST أن أداة Dioptra يمكن أن تُسلط الضوء على أنواع الهجمات التي قد تؤدي إلى تدهور أداء نظام الذكاء الاصطناعي، وتحديد كمية تأثيرها.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي