برامج وتطبيقاتتقارير ومتابعات

جرائم الإنترنت: خسائر تصل إلى 12 تريليون دولار بحلول عام 2025، حسب توقعات Forrester

بوابة الذكاء الاصطناعي - وحدة المتابعة

حذّرت شركة الأبحاث Forrester من تصاعد التهديدات الإلكترونية وتزايد تكاليف جرائم الإنترنت، متوقعةً بلوغها 12 تريليون دولار أمريكي بحلول عام 2025. ويأتي هذا التحذير ضمن تقرير توقعات Forrester لعام 2025، والذي يُسلط الضوء على التحديات الجسيمة في مجال الأمن السيبراني وإدارة المخاطر وحماية الخصوصية. ودعت الشركة المنظمات إلى تبني إجراءات أمنية استباقية للحد من الآثار التشغيلية، خاصةً مع تزايد استخدام تقنيات الذكاء الاصطناعي وأجهزة إنترنت الأشياء.

ومن أهم التوقعات التي تضمنها التقرير، نية الحكومات الغربية حظر بعض برامج الجهات الخارجية أو البرامج مفتوحة المصدر، نظراً لزيادة المخاوف بشأن هجمات سلسلة توريد البرامج، وهي من الأسباب الرئيسية لانتهاكات البيانات عالمياً. وقد دفع الضغط المتزايد من الحكومات الغربية الشركات الخاصة إلى إنتاج قوائم مواد البرامج (SBOMs)، لتعزيز الشفافية بشأن مكونات البرامج.

لكن هذه القوائم تُظهر أيضاً اعتماد الحكومات على برامج الجهات الخارجية والبرامج مفتوحة المصدر في مشترياتها. وتوقّع التقرير أن تفرض إحدى الحكومات قيوداً على مكون مفتوح المصدر محدد لأسباب تتعلق بالأمن القومي في عام 2025. وبالتالي، سيتعين على موردي البرامج إزالة المكونات المثيرة للمشاكل وإيجاد بدائل للحفاظ على الوظائف.

ومن التوقعات الرئيسية الأخرى، إصدار الاتحاد الأوروبي غرامةً أولى بموجب قانون الذكاء الاصطناعي الجديد على مزود نموذج ذكاء اصطناعي عام (GPAI). وحذرت Forrester من أن الشركات غير المُستعدة للوائح الذكاء الاصطناعي ستواجه مخاطر كبيرة من جهات خارجية. ومع انتشار نماذج الذكاء الاصطناعي التوليدي، يجب على الشركات التحقق بدقة من الموردين وجمع الأدلة لتجنب الغرامات والتحقيقات. كما يتوقع التقرير حدوث اختراق واسع النطاق لأجهزة إنترنت الأشياء، مع سهولة اختراق الجهات الضارة لأنظمة إنترنت الأشياء الشائعة. وقد تؤدي مثل هذه الانتهاكات إلى اضطرابات واسعة النطاق، مما يُجبر المنظمات على الانخراط في جهود تصحيح مكلفة.

وتوقع التقرير أيضاً أن يُقلل كبار مسؤولي أمن المعلومات (CISOs) تركيزهم على تطبيقات الذكاء الاصطناعي التوليدي بنسبة 10٪، مشيرين إلى الحاجة إلى قيمة قابلة للقياس. في الوقت الحالي، يُعطي 35٪ من كبار مسؤولي أمن المعلومات ومسؤولي تقنية المعلومات عالمياً الأولوية للذكاء الاصطناعي لتعزيز إنتاجية الموظفين، لكن من المتوقع أن يُعيق الإحباط المتزايد والميزانيات المحدودة المزيد من تبني الذكاء الاصطناعي. يكشف التقرير أن 18٪ من صناع القرار في مجال الذكاء الاصطناعي عالمياً يرون بالفعل أن قيود الميزانية تمثل عقبةً رئيسية، وهو رقم من المتوقع أن يزداد مع كفاح المنظمات لتبرير الاستثمار في مبادرات الذكاء الاصطناعي.

كما يُسلط التقرير الضوء على زيادة حوادث الأمن السيبراني. في عام 2023، أبلغ 28٪ من صناع القرار في مجال الأمن عن ستة انتهاكات بيانات أو أكثر، بزيادة قدرها 16 نقطة مئوية عن عام 2022. بالإضافة إلى ذلك، واجه 72٪ من هؤلاء صناع القرار تكاليف انتهاكات بيانات تتجاوز مليون دولار. على الرغم من هذه الإحصائيات المقلقة، أعطى 16٪ فقط من قادة الأمن العالميين الأولوية لاختبار وتحسين عمليات الاستجابة للحوادث في عام 2023، مما يترك العديد من المنظمات غير مُستعدة للهجمات المستقبلية.

ومن المتوقع أن تصبح مخاطر الأمن السيبراني ذات الصلة بالإنسان، مثل مقاطع الفيديو المُزيفة العميقة، وسرقة البيانات الداخلية، واستخدام الذكاء الاصطناعي التوليدي بشكل خاطئ، والأخطاء البشرية، أكثر تعقيداً مع توسع قنوات الاتصال. كما يستكشف التقرير كيف يمكن للذكاء الاصطناعي التوليدي إعادة تشكيل إدارة الهوية والوصول، معالجة التحديات مثل إدارة الهوية، وإجراءات المراجعة، وإدارة دورة الحياة، والمصادقة. في الختام، يحث التقرير الشركات على الاستعداد للتهديدات المتطورة وتبني استراتيجيات مُتقدمة لحماية أصولها مع تغير المشهد الأمني السيبراني.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى