برامج وتطبيقاتبوت وروبوت

مايكروسوفت وأوبن إيه آي تحققان في اتهامات بسرقة بيانات من قبل شركة “ديب سيك” الصينية

تُجري شركتا مايكروسوفت وأوبن إيه آي تحقيقًا في انتهاك محتمل لنظام شركة الذكاء الاصطناعي من قبل مجموعة يُزعم ارتباطها بشركة “ديب سيك” الصينية الناشئة في مجال الذكاء الاصطناعي. وقد أثار هذا الحدث مخاوف واسعة النطاق بشأن المنافسة الدولية في مجال الذكاء الاصطناعي.

وبحسب وكالة بلومبرج، فإن التحقيق نابع من نشاط استخراج بيانات مشبوه تم اكتشافه في أواخر عام 2024 عبر واجهة برمجة التطبيقات (API) الخاصة بأوبن إيه آي. وتعتقد مصادر مطلعة أن هذا النشاط قد يُخالف شروط خدمة أوبن إيه آي، أو أن المجموعة استغلت ثغرات لتجاوز القيود المفروضة على كمية البيانات التي يمكن جمعها.

وقد برزت شركة “ديب سيك” بسرعة في المشهد التنافسي للذكاء الاصطناعي، خاصةً مع إطلاق أحدث نموذج لها، “R-1″، في 20 يناير. ويُعتبر هذا النموذج منافسًا لـ ChatGPT من أوبن إيه آي من حيث الأداء، لكنه تم تطويره بتكلفة أقل بكثير، مما أحدث ضجة في صناعة التكنولوجيا. وقد أدى إطلاقه إلى انخفاض حاد في أسهم التكنولوجيا والذكاء الاصطناعي، مما أدى إلى خسائر بمليارات الدولارات في الأسواق الأمريكية خلال أسبوع واحد.

واتهم ديفيد ساكس، المُعين حديثًا “قَيْصَر التشفير والذكاء الاصطناعي” في البيت الأبيض، شركة “ديب سيك” باستخدام أساليب مشكوك فيها لتحقيق قدرات نموذجها للذكاء الاصطناعي. وفي مقابلة مع قناة فوكس نيوز، أشار ساكس إلى أدلة تشير إلى أن “ديب سيك” استخدمت تقنية “التقطير” لتدريب نماذج الذكاء الاصطناعي الخاصة بها باستخدام مخرجات أنظمة أوبن إيه آي. وقال ساكس: “توجد أدلة قوية على أن ما قامت به ديب سيك هنا هو تقطير المعرفة من نماذج أوبن إيه آي، وأعتقد أن أوبن إيه آي ليست سعيدة بذلك على الإطلاق”.

وتتضمن تقنية تقطير النماذج تدريب نظام ذكاء اصطناعي واحد باستخدام بيانات تم توليدها بواسطة نظام آخر، مما قد يسمح للمنافسين بتطوير وظائف مماثلة. وقد أثارت هذه الطريقة، عند تطبيقها بدون تصريح مناسب، جدلًا أخلاقيًا وجدلًا يتعلق بالملكية الفكرية مع اشتداد السباق العالمي على التفوق في مجال الذكاء الاصطناعي.

وقد امتنعت أوبن إيه آي عن التعليق تحديدًا على الاتهامات الموجهة إلى ديب سيك، لكنها أقرت بالمخاطر الأوسع التي يمثلها تقطير النماذج، خاصة من قبل الشركات الصينية. وقال متحدث باسم أوبن إيه آي لوكالة بلومبرج: “نحن نعلم أن الشركات الصينية – وآخرين – يحاولون باستمرار تقطير نماذج شركات الذكاء الاصطناعي الأمريكية الرائدة”.

مخاوف جيوسياسية وأمنية:

تتجاوز التوترات المتزايدة حول ابتكار الذكاء الاصطناعي حدود التنافس الاقتصادي لتصل إلى الأمن القومي. فقد أفادت قناة CNBC أن البحرية الأمريكية حظرت على أفرادها استخدام منتجات “ديب سيك”، بدعوى مخاوف من أن الحكومة الصينية قد تستغل المنصة للوصول إلى معلومات حساسة.

وفي بريد إلكتروني مؤرخ في 24 يناير، حذرت البحرية موظفيها من استخدام ذكاء اصطناعي “ديب سيك” ” بأي شكل من الأشكال” بسبب “المخاوف الأمنية والأخلاقية المحتملة المرتبطة بأصل النموذج واستخدامه”.

وقد سلط النقاد الضوء على سياسة خصوصية “ديب سيك”، التي تسمح بجمع بيانات مثل عناوين IP، ومعلومات الجهاز، وحتى أنماط الضغط على لوحة المفاتيح – وهو نطاق لجمع البيانات يعتبره بعض الخبراء مفرطًا.

وفي وقت سابق من هذا الأسبوع، صرّحت “ديب سيك” بأنها تواجه “هجمات خبيثة واسعة النطاق” ضد أنظمتها. وقد أبلغت لافتة على موقعها الإلكتروني المستخدمين بتقييد مؤقت للتسجيل.

تُبرز المنافسة المتزايدة بين الولايات المتحدة والصين، على وجه الخصوص، في قطاع الذكاء الاصطناعي، مخاوف أوسع تتعلق بالملكية التكنولوجية والحوكمة الأخلاقية والأمن القومي. يحذر الخبراء من أنه مع تطور أنظمة الذكاء الاصطناعي وزيادة تكاملها في التخطيط الاقتصادي والاستراتيجي العالمي، من المرجح أن تزداد الخلافات حول استخدام البيانات والملكية الفكرية. وتُضخم الاتهامات الموجهة إلى “ديب سيك” القلق بشأن التطور السريع للصين في هذا المجال وسعيها المحتمل لتجاوز الضمانات التي تقودها الولايات المتحدة من خلال الهندسة العكسية وغيرها من الوسائل.

وبينما تستمر أوبن إيه آي ومايكروسوفت في تحقيقهما في إساءة استخدام منصة أوبن إيه آي المزعومة، تراقب الشركات والحكومات على حد سواء هذه القضية عن كثب. وقد تُحدد هذه القضية سابقة لكيفية مراقبة مطوري الذكاء الاصطناعي لاستخدام النماذج وإنفاذ شروط الخدمة. ولكن في الوقت الحالي، يُبرز رد فعل أصحاب المصلحة الأمريكيين والصينيين على حد سواء كيف أصبح ابتكار الذكاء الاصطناعي ليس مجرد سباقًا للسيطرة التكنولوجية، بل هو مسابقة جيوسياسية محفوفة بالمخاطر تُشكّل ديناميكيات القوة في القرن الحادي والعشرين.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى