بوت وروبوتبرامج وتطبيقات

Mistral Large 2: منافس قوي في عالم نماذج اللغة الكبيرة

 بوابة الذكاء الاصطناعي - وحدة المتابعة 

يُزعم أن النموذج الجديد من Mistral AI، Mistral Large 2 (ML2)، ينافس نماذج اللغة الكبيرة من شركات رائدة مثل OpenAI و Meta و Anthropic، على الرغم من كونه أصغر بكثير من هذه النماذج.

يأتي إطلاق هذا النموذج في وقت جدير بالملاحظة، حيث تزامن مع إطلاق Meta لنموذج Llama 3.1 الضخم الذي يحتوي على 405 مليار معلمة. يتمتع كل من ML2 و Llama 3.1 بإمكانيات مذهلة، بما في ذلك نافذة سياق تبلغ 128,000 رمز لتحسين “الذاكرة” ودعم العديد من اللغات.

لطالما تميزت Mistral AI بتركيزها على تنوع اللغات، ويواصل ML2 هذا التقليد. يدعم النموذج “عشرات” اللغات وأكثر من 80 لغة برمجة، مما يجعله أداة متعددة الاستخدامات للمطورين والشركات في جميع أنحاء العالم.

وفقًا لمعايير مقارنة Mistral، يُظهر ML2 أداءً تنافسيًا مع نماذج من الدرجة الأولى مثل GPT-4o من OpenAI و Claude 3.5 Sonnet من Anthropic و Llama 3.1 405B من Meta عبر اختبارات مختلفة للغات والبرمجة والرياضيات.

في معيار Massive Multitask Language Understanding (MMLU) المعترف به على نطاق واسع، حقق ML2 درجة 84٪. على الرغم من أنه متأخر قليلاً عن منافسيه (GPT-4o بنسبة 88.7٪، و Claude 3.5 Sonnet بنسبة 88.3٪، و Llama 3.1 405B بنسبة 88.6٪)، تجدر الإشارة إلى أن خبراء المجال البشري يُقدر أنهم يحققون حوالي 89.8٪ في هذا الاختبار.

ما يميز ML2 هو قدرته على تحقيق أداء عالٍ باستخدام موارد أقل بكثير من منافسيه. مع 123 مليار معلمة، يُعد ML2 أقل من ثلث حجم أكبر نموذج من Meta وأقل من سدس حجم GPT-4. هذه الكفاءة لها آثار كبيرة على النشر والتطبيقات التجارية.

مع الدقة الكاملة 16 بت، يتطلب ML2 حوالي 246 جيجابايت من الذاكرة. بينما لا يزال هذا حجمًا كبيرًا لبطاقة رسومات واحدة، يمكن نشره بسهولة على خادم يحتوي على أربع إلى ثماني بطاقات رسومات دون اللجوء إلى الكميّة – وهو إنجاز لا يمكن تحقيقه بالضرورة مع نماذج أكبر مثل GPT-4 أو Llama 3.1 405B.

تؤكد Mistral على أن الحجم الأصغر لـ ML2 يُترجم إلى إنتاجية أعلى، حيث يتم تحديد أداء LLM إلى حد كبير بواسطة عرض نطاق التردد للذاكرة. من الناحية العملية، يعني هذا أن ML2 يمكنه إنشاء ردود أسرع من النماذج الأكبر على نفس الأجهزة.

معالجة التحديات الرئيسية
أعطت Mistral الأولوية لمكافحة الهلوسة – وهي مشكلة شائعة حيث تُنشئ نماذج الذكاء الاصطناعي معلومات مقنعة ولكن غير دقيقة. تدعي الشركة أن ML2 تم ضبطه بشكل دقيق ليكون أكثر “حذرًا وتمييزًا” في ردوده وأفضل في التعرف على متى تفتقر إلى معلومات كافية للإجابة على استعلام.

بالإضافة إلى ذلك، تم تصميم ML2 للتفوق في اتباع التعليمات المعقدة، خاصة في المحادثات الأطول. يمكن أن يؤدي هذا التحسن في قدرات متابعة المطالبات إلى جعل النموذج أكثر تنوعًا وسهولة الاستخدام عبر مجموعة متنوعة من التطبيقات.

في إشارة إلى المخاوف التجارية العملية، قامت Mistral بتحسين ML2 لإنشاء ردود موجزة عند الاقتضاء. بينما يمكن أن تؤدي المخرجات المطولة إلى درجات أعلى في المعايير، غالبًا ما تؤدي إلى زيادة وقت الحوسبة والتكاليف التشغيلية – وهو اعتبار يمكن أن يجعل ML2 أكثر جاذبية للاستخدام التجاري.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى