علامات مائية للمحتوى المنتج من قبل الذكاء الاصطناعي
منصة الذكاء الاصطناعي ـ متابعات
تعتزم الحكومة الفيدرالية الأسترالية الطلب من شركات التكنولوجيا وضع علامات مائية أو تسميات على المحتوى الذي يتم إنتاجه بواسطة الذكاء الاصطناعي، مثل ChatGPT، حيث تواجه التطورات السريعة للمنتجات ذات المخاطر العالية في مجال الذكاء الاصطناعي تحدياً أكبر من التشريعات الحالية.
وسيصدر وزير الصناعة والعلوم، إد هيوسك، يوم الأربعاء، رد الحكومة على عملية التشاور حول الذكاء الاصطناعي الآمن والمسؤول في أستراليا. واستشهد الرد بأبحاث McKinsey للإشارة إلى أن اعتماد الذكاء الاصطناعي والأتمتة يمكن أن يزيد الناتج المحلي الإجمالي لأستراليا بمقدار يصل إلى 600 مليار دولار سنويًا.
ومع ذلك، أشار الرد أيضًا إلى القلق العام المتعلق بالتكنولوجيا. وصرح هيوسك أن الحكومة ترغب في استمرار ازدهار استخدامات الذكاء الاصطناعي ذات المخاطر المنخفضة، ولكن هناك بعض التطبيقات التي تحتاج إلى تنظيم جديد وأكثر صرامة، مثل السيارات ذاتية القيادة وبرامج تقييم طلبات التوظيف.
قال هيوسك: “يدرك الأستراليون قيمة الذكاء الاصطناعي، ولكنهم يرغبون في رؤية تحديد المخاطر ومعالجتها. لقد استمعنا بوضوح إلى رغبة الأستراليين في وجود إجراءات رقابية أكثر صرامة لإدارة الذكاء الاصطناعي ذي المخاطر العالية”.
وتشير الوثيقة إلى استطلاعات تظهر أن ثلثي الأستراليين يعتقدون فقط أن هناك “إجراءات رقابية” كافية لتصميم وتطوير الذكاء الاصطناعي. وتعلق الوثيقة بقولها: “على الرغم من التوقعات بنمو الذكاء الاصطناعي للاقتصاد، فإن هناك ثقة منخفضة في الجمهور بأن أنظمة الذكاء الاصطناعي يتم تصميمها وتطويرها ونشرها واستخدامها بأمان ومسؤولية”.
وفي الاستجابة المؤقتة، تعهدت الحكومة بتشكيل فوري لمجموعة استشارية متخصصة في وضع سياساتالذكاء الاصطناعي، والتي تهدف إلى تعزيز إجراءات الرقابة، بالإضافة إلى تطوير “معيار السلامة في الذكاء الاصطناعي” كمبادرة طوعية تعمل كمرجع للشركات التي ترغب في دمج التكنولوجيا في أنظمتها. كما ستبدأ الحكومة في التشاور مع الصناعة بشأن إجراءات الشفافية الجديدة.
تتضمن الخيارات المستقبلية المطروحة للنظر فيها إجراءات الحماية الإلزامية مثل اختبار المخاطر ومنع الأضرار قبل إطلاق المنتجات الجديدة، وإجراءات المساءلة مثل تحديد معايير التدريب لمطوري البرمجيات.
تهدف هذه الإجراءات إلى تعزيز الثقة العامة في الذكاء الاصطناعي وتحقيق توازن بين تطوير التكنولوجيا والحماية العامة. تأمل الحكومة الأسترالية أن تساهم هذه الخطوات في تعزيز الاستفادة الاقتصادية والاجتماعية من الذكاء الاصطناعي وفي تحقيق التقدم المستدام والمسؤول.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي.