بوت وروبوتتقارير ومتابعات

دعوة ملحة لتنظيم أقوى للذكاء الاصطناعي: نتائج استطلاع جديد من سولار ويندز

بوابة الذكاء الاصطناعي - وحدة المتابعة

كشفت دراسة جديدة من شركة سولار ويندز عن دعوة قوية لزيادة الرقابة الحكومية على الذكاء الاصطناعي، حيث أيد 88% من محترفي تكنولوجيا المعلومات تنظيمًا أقوى لهذا المجال. شملت الدراسة نحو 700 خبير في تكنولوجيا المعلومات، وأبرزت أن الأمان يشكل القلق الأساسي، حيث أكد 72% من المشاركين على الحاجة الملحة لتأمين البنية التحتية. فيما جاء موضوع الخصوصية في المرتبة الثانية، حيث دعا 64% من المحترفين إلى وضع قواعد أكثر صرامة لحماية المعلومات الحساسة.

علق روب جونسون، نائب رئيس الشركة ورئيس قسم حلول الهندسة العالمية، قائلًا: “من المفهوم أن قادة تكنولوجيا المعلومات يتعاملون مع الذكاء الاصطناعي بحذر. مع تطور التكنولوجيا بسرعة، تبرز تحديات طبيعية تتعلق بأي ابتكار ناشئ. تبقى الأمان والخصوصية في مقدمة الأولويات، مع استمرار التدقيق من قبل الهيئات التنظيمية. ومع ذلك، تقع على عاتق المؤسسات مسؤولية اتخاذ خطوات استباقية من خلال تعزيز نظافة البيانات، وتطبيق أخلاقيات صارمة للذكاء الاصطناعي، وتشكيل الفرق المناسبة لقيادة هذه الجهود. هذه الخطوات الاستباقية لا تساعد فقط في الامتثال للتشريعات المتغيرة، بل تعظم أيضًا من إمكانيات الذكاء الاصطناعي.”

تأتي نتائج الاستطلاع في وقت حاسم، تزامنًا مع تنفيذ قانون الذكاء الاصطناعي في الاتحاد الأوروبي. وفي المملكة المتحدة، اقترحت الحكومة العمالية الجديدة تشريعًا خاصًا بالذكاء الاصطناعي خلال خطاب الملك الأخير، مما يشير إلى اعتراف متزايد بالحاجة إلى أطر تنظيمية. في الولايات المتحدة، أقر مجلس ولاية كاليفورنيا الشهر الماضي مشروع قانون مثير للجدل يتعلق بسلامة الذكاء الاصطناعي.

علاوة على الأمان والخصوصية، يكشف الاستطلاع عن مجموعة واسعة من المخاوف بين محترفي تكنولوجيا المعلومات. حيث يعتقد 55% أن تدخل الحكومة ضروري للحد من انتشار المعلومات المضللة الناتجة عن الذكاء الاصطناعي. بالإضافة إلى ذلك، يدعم نصف المشاركين تنظيمات تهدف إلى ضمان الشفافية والممارسات الأخلاقية في تطوير الذكاء الاصطناعي.

تحديات تتجاوز تنظيم الذكاء الاصطناعي

ومع ذلك، تمتد التحديات التي تواجه اعتماد الذكاء الاصطناعي إلى ما هو أبعد من القضايا التنظيمية. يكشف الاستطلاع عن نقص مقلق في الثقة بجودة البيانات، وهي أساس نجاح تنفيذ الذكاء الاصطناعي. حيث يعتبر 38% من المشاركين أنفسهم “موثوقين جدًا” بجودة البيانات والتدريب المستخدم في أنظمة الذكاء الاصطناعي. هذه الشكوك ليست بلا أساس، إذ يُعزى 40% من قادة تكنولوجيا المعلومات الذين واجهوا مشكلات مع الذكاء الاصطناعي هذه المشكلات إلى أخطاء خوارزمية ناجمة عن بيانات غير كافية أو متحيزة.

نتيجة لذلك، تظهر جودة البيانات كأكبر عائق ثانٍ أمام اعتماد الذكاء الاصطناعي (16%)، بعد مخاطر الأمان والخصوصية. تؤكد هذه النتيجة على الأهمية الحيوية لوجود مجموعات بيانات قوية وغير متحيزة في تحقيق نجاح الذكاء الاصطناعي.

قال جونسون: “تعد البيانات عالية الجودة حجر الزاوية لنماذج الذكاء الاصطناعي الدقيقة والموثوقة، مما يؤدي إلى اتخاذ قرارات أفضل ونتائج محسنة. البيانات الموثوقة تبني الثقة في الذكاء الاصطناعي بين محترفي تكنولوجيا المعلومات، مما يسرع من اعتماد وتكامل تقنيات الذكاء الاصطناعي.”

كما يُظهر الاستطلاع وجود مخاوف واسعة النطاق بشأن جاهزية قواعد البيانات. حيث يعبر أقل من نصف (43%) محترفي تكنولوجيا المعلومات عن ثقتهم في قدرة شركاتهم على تلبية الطلبات المتزايدة للبيانات المتعلقة بالذكاء الاصطناعي. وتزداد هذه المشكلة بسبب إدراك أن المؤسسات لا تتحرك بسرعة كافية لتنفيذ الذكاء الاصطناعي، حيث أشار 46% من المشاركين إلى أن التحديات المستمرة في جودة البيانات تساهم في ذلك.

مع استمرار الذكاء الاصطناعي في إعادة تشكيل المشهد التكنولوجي، تعتبر نتائج استطلاع سولار ويندز دعوة واضحة لتنظيم أقوى وممارسات بيانات محسنة. الرسالة من محترفي تكنولوجيا المعلومات واضحة: بينما يحمل الذكاء الاصطناعي وعودًا هائلة، يعتمد نجاح تكامله على معالجة المخاوف الأساسية المتعلقة بالأمان والخصوصية وجودة البيانات.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى