تحذير من PSA Certified : نمو الذكاء الاصطناعي يتفوق على إجراءات الأمن
بوابة الذكاء الاصطناعي - وحدة المتابعة
كشفت دراسة جديدة من PSA Certified عن وجود فجوة خطيرة بين سرعة نمو الذكاء الاصطناعي وإجراءات الأمن، على الرغم من اعتراف الصناعة بضرورة تطبيق إجراءات أمنية قوية.
أظهرت الدراسة، التي شملت 1260 من صناع القرار في مجال التكنولوجيا حول العالم، أن ثُلثي المشاركين (68%) يشعرون بالقلق من أن سرعة تطور الذكاء الاصطناعي تتجاوز قدرة الصناعة على حماية المنتجات والأجهزة والخدمات. ويُؤدي هذا القلق إلى زيادة في اعتماد الحوسبة الهامشية، حيث يُؤمن 85% من المشاركين أن مخاوف الأمن ستدفع مزيدًا من حالات استخدام الذكاء الاصطناعي إلى الهامش.
وتُقدم الحوسبة الهامشية، التي تعالج البيانات محليًا على الأجهزة بدلاً من الاعتماد على أنظمة السحابة المركزية، مزايا جوهرية في الكفاءة والأمن والخصوصية. ومع ذلك، يتطلب هذا التحول إلى الهامش تركيزًا متزايدًا على أمن الأجهزة.
يحذر ديفيد مايدمنت، المدير الأول للاستراتيجية السوقية في Arm (شريك مؤسس PSA Certified): “هناك ارتباط هام بين الذكاء الاصطناعي والأمن: لا يمكن لأحدهما التوسع دون الآخر. بينما يُعدّ الذكاء الاصطناعي فرصة هائلة، فإن انتشاره يُقدم نفس الفرصة للفاعلين السيئين.”
وعلى رغم التعرف على أهمية الأمن، فإن هناك فجوة كبيرة بين الوعي والعمل. يُؤمن نصف المشاركين في الدراسة (50%) فقط أن استثماراتهم الحالية في الأمن كافية. علاوة على ذلك، يتم إهمال ممارسات الأمن الأساسية، مثل الشهادات المستقلة ونماذج التهديد، من قبل جزء كبير من المستجيبين.
يؤكد مايدمنت: “من الأهم من أي وقت مضى أن لا تُهمل أفضل ممارسات الأمن في النظام الإيكولوجي للأجهزة المتصلة في السعي وراء ميزات الذكاء الاصطناعي. يجب على سلسلة القيمة بأكمله تحمل المسؤولية الجماعية والتأكد من الحفاظ على ثقة المستهلك في الخدمات المعتمدة على الذكاء الاصطناعي.”
يُسلط التقرير الضوء على ضرورة اتباع نهج شمولي للأمن، مدمج في دورة حياة الذكاء الاصطناعي بالكامل، من نشر الأجهزة إلى إدارة نماذج الذكاء الاصطناعي التي تعمل في الهامش. ويُعتبر هذا النهج الاستباقي، الذي يُدمج مبادئ الأمن من التصميم، أساسيًا لبناء ثقة المستهلك وتخفيف مخاطر الأمن المتزايدة.
وعلى رغم المخاوف، فإن شعورًا بالأمل يسود داخل الصناعة. يُؤمن غالبية صناع القرار (67%) أن منظماتهم مُجهزة للتعامل مع مخاطر الأمن المحتملة المرتبطة بانتشار الذكاء الاصطناعي. هناك اعتراف متزايد بضرورة إعطاء الأولوية لاستثمارات الأمن – يركز 46% من المشاركين على تعزيز الأمن، مقارنة بـ 39% يُركزون على التحضير للذكاء الاصطناعي.
يختتم مايدمنت قوله: “يجب على أولئك الذين يسعون إلى إطلاق العنان لإمكانات الذكاء الاصطناعي بالكامل أن يتأكدوا من أنهم يتخذون الخطوات الصحيحة لتخفيف مخاطر الأمن المحتملة. مع تبني أصحاب المصلحة في النظام الإيكولوجي للأجهزة المتصلة مجموعة جديدة من حالات الاستخدام المُمكنة بالذكاء الاصطناعي بشكل سريع، فمن الضروري أن لا يُقدموا على الاستمرار في الذكاء الاصطناعي بغض النظر عن آثار الأمن.”
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي