فعاليات ومتابعاتبرامج وتطبيقات

بروتوكول أمني جديد يحمي البيانات من المتسللين أثناء الحوسبة السحابية في عصر الذكاء الاصطناعي

بوابة الذكاء الاصطناعي - وحدة المتابعة

تُستخدم نماذج التعلم العميق في العديد من المجالات، بدءًا من تشخيص الرعاية الصحية ووصولاً إلى التنبؤات المالية. ومع ذلك، تتطلب هذه النماذج قدرات حوسبية مكثفة للغاية، مما يستلزم استخدام خوادم قوية قائمة على الحوسبة السحابية.

وتطرح هذه الاعتمادية على الحوسبة السحابية مخاطر أمنية كبيرة، خاصة في مجالات مثل الرعاية الصحية، حيث قد تتردد المستشفيات في استخدام أدوات الذكاء الاصطناعي لتحليل بيانات المرضى السرية بسبب مخاوف الخصوصية.

ولمعالجة هذه المشكلة الملحة، طور باحثون من معهد ماساتشوستس للتكنولوجيا بروتوكولًا أمنيًا يستفيد من الخصائص الكمية للضوء لضمان بقاء البيانات المرسلة من وإلى خادم سحابي آمنة أثناء عمليات حسابات التعلم العميق.

ومن خلال ترميز البيانات في ضوء الليزر المستخدم في أنظمة الاتصالات بالألياف الضوئية، يستغل البروتوكول المبادئ الأساسية لميكانيكا الكم، مما يجعل من المستحيل على المتسللين نسخ المعلومات أو اعتراضها دون اكتشاف.

وعلاوة على ذلك، يضمن هذا الأسلوب الأمان دون المساس بدقة نماذج التعلم العميق. وفي الاختبارات، أظهر الباحثون أن بروتوكولهم يمكنه الحفاظ على دقة تبلغ 96 بالمائة مع ضمان تدابير أمنية قوية.

يقول كفير سوليماني، باحث ما بعد الدكتوراه في معهد ماساتشوستس للتكنولوجيا في مختبر أبحاث الإلكترونيات (RLE) والمؤلف الرئيسي لورقة بحثية حول هذا البروتوكول الأمني: “تتمتع نماذج التعلم العميق مثل GPT-4 بقدرات غير مسبوقة، لكنها تتطلب موارد حاسوبية ضخمة. يُمكن بروتوكولنا المستخدمين من تسخير هذه النماذج القوية دون المساس بخصوصية بياناتهم أو بالطبيعة السرية للنماذج نفسها”.

انضم إلى سوليماني في الورقة البحثية كل من سري كريشنا فادلاماني، باحث ما بعد الدكتوراه في معهد ماساتشوستس للتكنولوجيا؛ ورايان هامرلي، باحث ما بعد الدكتوراه السابق الآن في NTT Research، Inc.؛ وبراهلاد إينجار، طالب دراسات عليا في الهندسة الكهربائية وعلوم الكمبيوتر (EECS)؛ والمؤلف الرئيسي ديرك إنجلوند، أستاذ في EECS، والباحث الرئيسي في مجموعة فوتونيات الكم والذكاء الاصطناعي وفي RLE. وقد تم تقديم البحث مؤخرًا في المؤتمر السنوي للتشفير الكمي.

اتجاه مزدوج للأمن في التعلم العميق

يركز سيناريو الحوسبة القائم على السحابة الذي ركز عليه الباحثون على طرفين: عميل لديه بيانات سرية، مثل الصور الطبية، وخادم مركزي يتحكم في نموذج التعلم العميق.

يريد العميل استخدام نموذج التعلم العميق لإجراء تنبؤ، مثل ما إذا كان المريض مصابًا بالسرطان بناءً على الصور الطبية، دون الكشف عن معلومات حول المريض.

في هذا السيناريو، يجب إرسال البيانات الحساسة لإنشاء تنبؤ. ومع ذلك، يجب أن تظل بيانات المريض آمنة أثناء العملية.

أيضًا، لا يريد الخادم الكشف عن أي أجزاء من النموذج الخاص الذي أنفقت شركة مثل OpenAI سنوات وملايين الدولارات لبنائه.

يضيف فادلاماني: “كلا الطرفين لديهما شيء يريدون إخفاءه”.

في الحوسبة الرقمية، يمكن لمهاجم شرير بسهولة نسخ البيانات المرسلة من الخادم أو العميل.

من ناحية أخرى، لا يمكن نسخ المعلومات الكمية بشكل مثالي. يستفيد الباحثون من هذه الخاصية، المعروفة بمبدأ عدم الاستنساخ، في بروتوكولهم الأمني.

بالنسبة لبروتوكول الباحثين، يقوم الخادم بترميز أوزان شبكة عصبية عميقة في مجال بصري باستخدام ضوء الليزر.

الشبكة العصبية هي نموذج تعلم عميق يتكون من طبقات من العقد المترابطة، أو الخلايا العصبية، التي تقوم بالحساب على البيانات. الأوزان هي مكونات النموذج التي تقوم بالعمليات الرياضية على كل مدخل، طبقة تلو الأخرى. يتم تغذية مخرجات طبقة واحدة إلى الطبقة التالية حتى تولد الطبقة الأخيرة تنبؤًا.

ينقل الخادم أوزان الشبكة إلى العميل، الذي ينفذ عمليات للحصول على نتيجة بناءً على بياناته الخاصة. تظل البيانات محمية من الخادم.

في الوقت نفسه، يسمح البروتوكول الأمني للعميل بقياس نتيجة واحدة فقط، ويمنع العميل من نسخ الأوزان بسبب الطبيعة الكمية للضوء.

بمجرد أن يقوم العميل بتغذية النتيجة الأولى في الطبقة التالية، يتم تصميم البروتوكول لإلغاء الطبقة الأولى حتى لا يتمكن العميل من معرفة أي شيء آخر عن النموذج.

يشرح سوليماني: “بدلاً من قياس كل الضوء الوارد من الخادم، يقيس العميل فقط الضوء اللازم لتشغيل الشبكة العصبية العميقة وتغذية النتيجة إلى الطبقة التالية. ثم يرسل العميل الضوء المتبقي إلى الخادم للتحقق من الأمان”.

بسبب نظرية عدم الاستنساخ، يطبق العميل حتمًا أخطاء صغيرة على النموذج أثناء قياس نتيجته. عندما يتلقى الخادم الضوء المتبقي من العميل، يمكن للخادم قياس هذه الأخطاء لتحديد ما إذا كانت أي معلومات قد تم تسريبها. من المهم أن هذا الضوء المتبقي ثبت أنه لا يكشف عن بيانات العميل.

بروتوكول عملي

تعتمد معدات الاتصالات الحديثة عادةً على الألياف الضوئية لنقل المعلومات نظرًا للحاجة إلى دعم عرض نطاق ترددي ضخم على مسافات طويلة. نظرًا لأن هذه المعدات تتضمن بالفعل أجهزة ليزر بصرية، يمكن للباحثين ترميز البيانات في الضوء لبروتوكولهم الأمني ​​دون أي أجهزة خاصة.

عندما قاموا باختبار نهجهم، وجد الباحثون أنه يمكنه ضمان الأمان للخادم والعميل مع تمكين الشبكة العصبية العميقة من تحقيق دقة 96 بالمائة.

تبلغ كمية المعلومات الصغيرة حول النموذج التي يتم تسريبها عندما يقوم العميل بالعمليات أقل من 10 بالمائة مما يحتاجه خصم لاستعادة أي معلومات مخفية. بالعمل في الاتجاه الآخر، لا يمكن للخادم الخبيث الحصول إلا على حوالي 1 بالمائة من المعلومات التي يحتاجها لسرقة بيانات العميل.

يقول سوليماني: “يمكنك أن تضمن أنه آمن في كلا الاتجاهين – من العميل إلى الخادم ومن الخادم إلى العميل”.

يقول إنجلوند: “قبل بضع سنوات، عندما قمنا بتطوير عرضنا للاستدلال على التعلم الآلي الموزع بين حرم معهد ماساتشوستس للتكنولوجيا الرئيسي ومعمل لينكون التابع لمعهد ماساتشوستس للتكنولوجيا، خطر ببالي أننا يمكننا القيام بشيء جديد تمامًا لتوفير أمان على مستوى الطبقة الفيزيائية، بناءً على سنوات من عمل التشفير الكمي الذي تم إظهاره أيضًا على منصة الاختبار تلك. ومع ذلك، كانت هناك العديد من التحديات النظرية العميقة التي كان يجب التغلب عليها لمعرفة ما إذا كان من الممكن تحقيق هذا الاحتمال للتعلم الآلي الموزع المضمون للخصوصية. لم يصبح هذا ممكنًا حتى انضم كفير إلى فريقنا، حيث فهم كفير بشكل فريد المكونات التجريبية وكذلك النظرية لتطوير الإطار الموحد الذي يقوم عليه هذا العمل”.

في المستقبل، يريد الباحثون دراسة كيفية تطبيق هذا البروتوكول على تقنية تسمى التعلم الاتحادي، حيث يستخدم العديد من الأطراف بياناتهم لتدريب نموذج تعلم عميق مركزي. يمكن استخدامه أيضًا في العمليات الكمية، بدلاً من العمليات الكلاسيكية التي درسها لهذه الدراسة، والتي يمكن أن توفر مزايا في كل من الدقة والأمان.

تقول إيليني ديامانتي، مديرة أبحاث في المركز الوطني للبحث العلمي بجامعة السوربون في باريس، والتي لم تشارك في هذا العمل: “يُجمع هذا العمل بطريقة ذكية ومثيرة للاهتمام تقنيات مستمدة من مجالات لا تتلاقى عادةً، على وجه الخصوص، التعلم العميق وتوزيع مفاتيح الكم. من خلال استخدام طرق من الأخيرة، يضيف طبقة أمان إلى الأولى، مع السماح أيضًا بما يبدو أنه تطبيق واقعي. يمكن أن يكون هذا مثيرًا للاهتمام للحفاظ على الخصوصية في الهياكل الموزعة. أتطلع إلى رؤية كيفية تصرف البروتوكول في ظل عيوب تجريبية وتحقيقه العملي”.

تم دعم هذا العمل، جزئيًا، من قبل المجلس الإسرائيلي للتعليم العالي وبرنامج زوكيرمان للقيادة في مجال العلوم والتكنولوجيا والهندسة والرياضيات.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى