نموذج صيني لتوليد الفيديو يخضع للرقابة على المواضيع الحساسة
بوابة الذكاء الاصطناعي - وحدة المتابعة
بوابة الذكاء الاصطناعي – وحدة المتابعة
أصبح نموذج جديد قوي لتوليد الفيديو مدعوم بالذكاء الاصطناعي متاحًا على نطاق واسع اليوم، لكن هناك مشكلة: يبدو أن النموذج يخضع للرقابة على المواضيع التي تعتبر حساسة سياسياً من قبل الحكومة في بلد المنشأ، الصين.
تم تطوير النموذج، الذي يُطلق عليه اسم “Kling”، من قبل شركة “Kuaishou” ومقرها بكين، وتم إطلاقه في وقت سابق من هذا العام في قائمة الانتظار للوصول إلى المستخدمين الذين لديهم رقم هاتف صيني. اليوم، تم إطلاقه للجميع الذين يرغبون في تقديم بريدهم الإلكتروني. بعد التسجيل، يمكن للمستخدمين إدخال مطالبات ليقوم النموذج بتوليد مقاطع فيديو مدتها خمس ثوانٍ لما تم وصفه.
يعمل “Kling” كما هو معلن. لا تبتعد مقاطع الفيديو بدقة 720 بكسل، التي تستغرق دقيقة أو دقيقتين لتوليدها، كثيرًا عن المطالبات. ويبدو أن “Kling” يحاكي الفيزياء، مثل خشخشة الأوراق وتدفق المياه، بنفس جودة نماذج توليد الفيديو مثل “Gen-3” من شركة “Runway” الناشئة في مجال الذكاء الاصطناعي و”Sora” من شركة “OpenAI”.
ولكن “Kling” لن يقوم بشكل قاطع بتوليد مقاطع عن مواضيع معينة. تؤدي مطالبات مثل “الديمقراطية في الصين” و”رئيس الصين شي جين بينغ يسير في الشارع” و”احتجاجات ساحة تيانانمن” إلى رسالة خطأ غير محددة.
في وقت سابق من هذا الشهر، ذكرت صحيفة “فاينانشيال تايمز” أن نماذج الذكاء الاصطناعي في الصين ستخضع للاختبار من قبل هيئة تنظيم الإنترنت الرائدة في الصين، وهي إدارة الفضاء الإلكتروني الصينية (CAC)، لضمان أن ردودها على المواضيع الحساسة “تجسد القيم الاشتراكية الأساسية”. سيتم قياس أداء النماذج من قبل مسؤولي CAC لردودها على مجموعة متنوعة من الاستعلامات، وفقًا لتقرير “فاينانشيال تايمز” – العديد منها يتعلق بـ شي جين بينغ وانتقاد الحزب الشيوعي.
وُضع في الاعتبار أن إدارة الفضاء الإلكتروني الصينية قد ذهبت إلى حد اقتراح قائمة سوداء من المصادر التي لا يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي. يجب على الشركات التي تقدم نماذج للمراجعة إعداد عشرات الآلاف من الأسئلة المصممة لاختبار ما إذا كانت النماذج تنتج إجابات “آمنة”.
النتيجة هي أنظمة الذكاء الاصطناعي التي ترفض الرد على المواضيع التي قد تثير غضب المنظمين الصينيين. في العام الماضي، وجدت هيئة الإذاعة البريطانية (BBC) أن “Ernie”، نموذج الدردشة الآلي الرائد لشركة “Baidu” الصينية، تردد وتجنب الرد عندما سُئل أسئلة قد تُعتبر مثيرة للجدل سياسياً، مثل “هل شينجيانغ مكان جيد؟” أو “هل التبت مكان جيد؟”.
تهدد السياسات القمعية بتباطؤ تقدم الصين في مجال الذكاء الاصطناعي. فهي لا تتطلب فقط فحص البيانات لإزالة المعلومات الحساسة سياسياً، بل تتطلب أيضًا استثمار كمية هائلة من وقت التطوير في إنشاء حواجز أيديولوجية – حواجز قد لا تزال تفشل، كما يوضح “Kling”.
من منظور المستخدم، تؤدي لوائح الذكاء الاصطناعي في الصين بالفعل إلى فئتين من النماذج: بعضها مقيد بالفلترة المكثفة والبعض الآخر أقل بكثير. هل هذا حقًا أمر جيد لنظام الذكاء الاصطناعي الأوسع؟
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي