ميتا تطلق “Movie Gen”: نموذج ذكاء اصطناعي ثوري لتحرير الفيديوهات
بوابة الذكاء الاصطناعي - وحدة المتابعة
أطلقت شركة ميتا نموذج “Movie Gen”، وهو نموذج ذكاء اصطناعي متطور قادر على إنتاج فيديوهات بدقة 1080 بكسل مع صوت مُزامن. يُمكن للنظام تحرير الفيديوهات بناءً على تعليمات المستخدم، مما يسمح بإنشاء محتوى شخصي باستخدام صور يوفرها المستخدم نفسه.
ويحتوي نموذج Movie Gen، القائم على تقنية المُحوِّلات (Transformers)، على 30 مليار معلمة، ويستطيع توليد فيديوهات مدتها 16 ثانية بمعدل 16 إطارًا في الثانية. وتُحسّن تقنيات النموذج المتقدمة واقعية حركة الفيديو، حيث تم تدريبه على أكثر من 100 مليون زوج فيديو-نص، ومليار زوج صورة-نص.
يتفوق Movie Gen على النماذج السابقة، بما في ذلك Runway Gen3 و OpenAI Sora، خاصةً في مهام تحرير الفيديو وتحويل النص إلى فيديو. وتُظهر المقاييس تفوقه في الحفاظ على بنية الفيديو وتفاصيله الدقيقة، خاصةً في اختبار TGVE+.
وتشمل التطورات المستقبلية لـ Movie Gen تحسين فهم المشاهد، والوقاية من إساءة الاستخدام، وجعل النظام أكثر سهولة في الوصول إليه. وتتوقع ميتا تطبيقاته في وسائل التواصل الاجتماعي، وإنتاج الأفلام، والحملات التسويقية.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي