خبير بريطاني: يجب التركيزعلى وضع معايير الذكاء الاصطناعي بدلاً من إجراء الاختبارات
منصة الذكاء الاصطناعي ـ متابعات
يجب أن تركز المملكة المتحدة على وضع معايير عالمية لاختبار الذكاء الاصطناعي بدلاً من محاولة إجراء جميع الفحوص اللازمة بنفسها، وفقًا لشركة تساهم في معهد سلامة الذكاء الاصطناعي التابع للحكومة.
صرح مارك وارنر، الرئيس التنفيذي لشركة Faculty AI، أنه يمكن أن يجد المعهد المؤسس حديثًا نفسه “عالقًا” في فحص مجموعة متنوعة من نماذج الذكاء الاصطناعي – التكنولوجيا التي تدعم الروبوتات الدردشة مثل ChatGPT – نظرًا للعمل المتقدم الذي تقوم به الحكومة في مجال سلامة الذكاء الاصطناعي.
أعلن ريشي سوناك تشكيل AI Safety Institute (AISI) العام الماضي قبل قمة الأمان العالمية للذكاء الاصطناعي، التي حصلت على التزام من شركات التكنولوجيا الكبرى بالتعاون مع الاتحاد الأوروبي و10 دول، بما في ذلك المملكة المتحدة والولايات المتحدة وفرنسا واليابان، في اختبار نماذج الذكاء الاصطناعي المتقدمة قبل وبعد نشرها.
تلعب المملكة المتحدة دورًا بارزًا في هذا الاتفاق بفضل عملها المتقدم في مجال سلامة الذكاء الاصطناعي، كما يتضح من إنشاء المعهد.
قال وارنر، الذي تتعاقد شركته المقرّة في لندن مع المعهد البريطاني وتشمل مساعدته في اختبار نماذج الذكاء الاصطناعي للتحقق مما إذا كانت يمكن تحفيزها لانتهاك إرشادات السلامة الخاصة بها: “أعتقد أنه من المهم أن يضع معايير للعالم بأسره بدلاً من محاولة القيام بكل شيء بنفسه”.
وأضاف وارنر، الذي تقوم شركته أيضًا بعمل لصالح الخدمة الوطنية للصحة فيما يتعلق بـ Covid ووزارة الداخلية في مكافحة التطرف: “لقد بدأ المعهد بداية رائعة حقًا، ولا أعتقد أنني رأيت شيئًا يتحرك فيوارنر أشار، وذلك قبل أن يصدر AISI تحديثًا حول برنامجه التجريبي الأسبوع الماضي واعترف بأنه ليس لديه القدرة على اختبار “جميع النماذج المطروحة” وسيركز فقط على أنظمة الذكاء الاصطناعي الأكثر تقدمًا.