أرشيف بوابة الذكاء الإصطناعي

منصة الذكاء الاصطناعي – متابعات

ثغرات في الذكاء الاصطناعي تنشأ نتيجة “تسميم” الشبكات العصبية

تشير الأبحاث إلى إمكانية تعرض الذكاء الاصطناعي للخطر نتيجة للأخطاء التي يتعرض لها في بيانات التدريب، سواء بشكل متعمد أو غير متعمد.

وفقًا لأرتيون أفيتيسيان، مدير معهد برمجة الأنظمة التابع لأكاديمية العلوم الروسية، يشكل هذا التهديد حاجةً إلى تطوير قواعد علمية وتكنولوجية جديدة.

وأوضح أفيتيسيان أن الثغرات في الذكاء الاصطناعي تنشأ نتيجة لعدم كمال النماذج المستخدمة وعملية “تسميم” البيانات. يمكن للثغرات أن تنتقل من نماذج مدربة سابقًا وحتى التدريب على النموذج الأصلي أو تعديله بطريقة تجعله عرضةً للمخاطر.

تم ذكر هذه النقاط خلال مشاركة أفيتيسيان في مؤتمر AI Journey الدولي لقضايا الذكاء الاصطناعي الذي اختتمت أعماله مؤخرًا في موسكو.

وأشار إلى أن هذه الثغرات الأمنية يمكن أن تتسبب في عدم اكتشاف جزء من البيانات التي يتم تحليلها بواسطة الذكاء الاصطناعي.

وبحسب أفيتيسيان، فإن “تسميم” البيانات قد يحدث بشكل غير مقصود نتيجة لعدم الكفاءة، لكن يمكن استغلال هذه الثغرات الأمنية من قبل الهجمات الضارة.

وأضاف العالم أنه يجب تطوير قواعد علمية وتكنولوجية جديدة لضمان موثوقية تلك التكنولوجيات، خاصة فيما يتعلق بالبيانات والنماذج المسبقة.

جدير بالذكر أن روسيا أعلنت تبنيها لميثاق الأخلاقيات في مجال الذكاء الاصطناعي عام 2021، بهدف ضمان سلامة القرارات المعتمدة على الذكاء الاصطناعي.

علاوة على ذلك، أكد العالم أنه من المستحيل تحقيق الاطلاع الكامل على المحتوى الذي ينتجه الذكاء الاصطناعي، وأيده في فكرة وضع علامات خاصة على هذا المحتوى. وأشار إلى أن استخدام تقنيات الذكاء الاصطناعي أمر ضرمحتوى تم بمعرفة وحدة الذكاء الاصطناعي.

ثغرات في الذكاء الاصطناعي تحدث نتيجة “تسميم” الشبكات العصبية

منصة الذكاء الاصطناعي – متابعات

تنبه دراسات إلى إمكانية تعرض الذكاء الاصطناعي للخطر بسبب الأخطاء التي يتعرض لها في بيانات التدريب، سواء كانت عمدية أو غير عمدية.

وفي هذا السياق، أشار أرتيون أفيتيسيان، مدير معهد برمجة الأنظمة التابع لأكاديمية العلوم الروسية، إلى أن هذا التهديد يستدعي تطوير قاعدة علمية وتكنولوجية جديدة.

وأوضح أفيتيسيان أن الثغرات في الذكاء الاصطناعي تنشأ نتيجة عدم كمال النماذج المستخدمة وتسميم البيانات. يُمكن للثغرات أن تنتقل من النماذج المدربة مسبقًا وحتى التدريب على النموذج الأصلي أو تعديله بحيث يصبح عرضة للخطر.

تم ذكر هذه النقاط خلال مشاركة أفيتيسيان في مؤتمر AI Journey الدولي لقضايا الذكاء الاصطناعي الذي اختتمت أعماله مؤخرًا في موسكو.

وأشار إلى أن هذه الثغرات الأمنية يمكن أن تتسبب في عدم اكتشاف جزء من البيانات التي تخضع للتحليل بواسطة الذكاء الاصطناعي.

من جانبه، أكد أفيتيسيان أن “تسميم” البيانات قد يحدث بشكل غير مقصود نتيجة لعدم الكفاءة، ولكن يُمكن استغلال هذه الثغرات الأمنية من قبل المهاجمين.

وأضاف العالم أنه يتوجب تطوير قاعدة علمية وتكنولوجية جديدة لضمان موثوقية تلك التكنولوجيات، وخاصة فيما يتعلق بالبيانات والنماذج المسبقة.

هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي  

 

مقالات ذات صلة

زر الذهاب إلى الأعلى