مقياس عدم الثقة الدقيق يساعد نماذج الذكاء الاصطناعي على تقدير مدى ثقتها بتنبؤاتها
باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) قدموا منهجًا جديدًا لتحسين تقديرات عدم التأكد في نماذج التعلم الآلي. هذه الطريقة ليس فقط تُنتج تقديرات أكثر دقة لعدم التأكد من التقنيات الأخرى، ولكنها تفعل ذلك بكفاءة أكبر أيضًا.
علاوة على ذلك، نظرًا لأن هذه التقنية قابلة للتطوير، فيمكن تطبيقها على نماذج عميقة للتعلم الآلي ذات المليارات من المعلمات والتي تُنشر بشكل متزايد في مجالات الرعاية الصحية والمواقف الحرجة الأخرى.
هذه التقنية يمكن أن تعطي المستخدمين النهائيين، الذين يفتقرون إلى الخبرة في مجال التعلم الآلي، معلومات أفضل يمكنهم استخدامها لتحديد ما إذا كان ينبغي الوثوق بتنبؤات النموذج أم لا، أو ما إذا كان ينبغي نشر النموذج لمهمة معينة.
“من السهل رؤية هذه النماذج تؤدي بشكل جيد للغاية في السيناريوهات التي تكون فيها جيدة جدًا، ثم افتراض أنها ستكون بنفس الجودة في سيناريوهات أخرى. هذا يجعل من الأهمية بمكان دفع هذا النوع من العمل الذي يسعى إلى تحسين معايرة عدم التأكد من هذه النماذج لضمان تواؤمها مع مفاهيم عدم التأكد البشرية”، كما يقول الباحث الرئيسي ناثان نج، وهو طالب دراسات عليا في جامعة تورونتو وزائر في MIT.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.