اليابان تخطط لتطبيق لوائح قانونية ملزمة لنظم الذكاء الاصطناعي لمواجهة الأخبار الزائفة
بوابة الذكاء الاصطناعي - وحدة المتابعة

تدرس الحكومة اليابانية تنفيذ لوائح قانونية ملزمة على مطوري نظم الذكاء الاصطناعي على نطاق واسع لمواجهة نشر الأخبار الزائفة والمخاطر الأخرى. في البداية، كانت الحكومة تميل نحو التدابير الطوعية، ولكنها تدرك الآن ضرورة وجود لوائح جزائية تتوافق مع الاتحاد الأوروبي ودول أخرى لمعالجة المخاوف المتعلقة باستخدام الذكاء الاصطناعي بطرق غير سليمة. ولمعالجة هذه المسألة، تخطط الحكومة لإنشاء مجلس خبراء في مجال الذكاء الاصطناعي لمناقشة هذه المسألة، وقد يتم دمج اللوائح الجديدة في إرشادات سياسة الإدارة الاقتصادية والمالية بحلول يونيو.
كما تخطط اليابان أيضًا لإصدار إرشادات تحدد عشرة مبادئ لاستخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة، مع التركيز على “التركيز على الإنسان”. ووفقًا لمسودة مقترحة من الحزب الديمقراطي الليبرالي الحاكم، قد يتم تعيين الشركات التي تطور التكنولوجيات المتقدمة مثل ChatGPT، وهو روبوت دردشة يعتمد على الذكاء الاصطناعي التوليفي، كـ “مطوري نماذج أساسية للذكاء الاصطناعي”. وسيُطلب من الشركات التي تستخدم الذكاء الاصطناعي في المجالات ذات المخاطر العالية إجراء التحققات الداخلية أو الخارجية للسلامة ومشاركة تقييمات المخاطر مع الحكومة.
سيتعين على المطورين المعتمدين من قبل الحكومة أن يقدموا تقارير حول حالة الامتثال للحكومة أو وكالات خارجية، وقد يؤدي عدم الامتثال إلى فرض غرامات أو عقوبات أو تفتيش في الموقع.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي