OpenAI تلغي الحظر المفروض على الاستخدام العسكري لأدوات الذكاء الاصطناعي
منصة الذكاء الاصطناعي – متابعات
أجرت OpenAI، الشركة المصنعة لـ ChatGPT، تعديلات هامة على قواعدها بصمت، من خلال إلغاء الحظر المفروض على استخدام أدوات الذكاء الاصطناعي، بما في ذلك روبوتات الدردشة، للأغراض العسكرية.
سابقًا، أعرب الخبراء عن مخاوفهم من أن تقنيات الذكاء الاصطناعي قد تؤدي إلى تصعيد الصراعات في جميع أنحاء العالم بواسطة الروبوتات التي يمكنها القتل بدون تدخل بشري. وفقًا لما ذكرته صحيفة “ديلي ميل”، أدى التغيير الذي حدث في وقت سابق من الأسبوع الماضي إلى إزالة البند الذي يعلن أن الشركة لن تسمح باستخدام النماذج في “الأنشطة التي تنطوي على مخاطر عالية للأذى الجسدي، بما في ذلك: تطوير الأسلحة والجيش والحرب”.
صرح متحدث باسم OpenAI لموقع “ديلي ميل” قائلاً إن الشركة، التي تسعى لجمع الأموال بقيمة 100 مليار دولار، تعمل حاليًا مع إدارة الدفاع الأمريكية على تطوير أدوات أمن سيبراني مصممة لحماية البرمجيات ذات مصدر مفتوح.
وأضاف المتحدث: “سياستنا لا تسمح باستخدام أدواتنا لإلحاق الأذى بالناس أو تطوير الأسلحة أو مراقبة الاتصالات أو إصابة الآخرين أو تدمير الممتلكات. ومع ذلك، هناك حالات استخدام تتعلق بالأمن القومي تتوافق مع مهمتنا. على سبيل المثال، نعمل بالفعل مع وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) لتطوير أدوات جديدة للأمن السيبراني تهدف إلى تأمين البرامج ذات المصدر المفتوح التي تعتمد عليها البنية التحتية الحيوية والصناعة. لم يكن واضحًا ما إذا كان سيتم السماح بحالات الاستخدام المفيد هذه بموجب مصطلح “عسكري” في سياساتنا السابقة. ولذا، يهدف تحديث سياستنا إلى توفير الوضوح والمعلومات إضافية:
تحديث سياسة OpenAI هو تغيير هام في السياسة السابقة المتعلقة باستخدام التكنولوجيا الذكاء الاصطناعي في الأغراض العسكرية. ومع ذلك، لا توجد معلومات محددة حول تفاصيل التغييرات المحددة التي تم إجراؤها في سياسة OpenAI أو كيف سيتم تنفيذها بالضبط.
يجب ملاحظة أن OpenAI ليست الشركة الوحيدة التي تعمل في مجال الذكاء الاصطناعي وتواجه تحديات تتعلق بأخلاقيات استخدام التكنولوجيا في الأغراض العسكرية. توجد مناقشات واسعة حول هذه المسألة في المجتمع العلمي والتكنولوجي، وتسعى العديد من المنظمات والمؤسسات إلى وضع توجهات وقواعد أخلاقية لتنظيم استخدام التكنولوجيا الذكاء الاصطناعي في القطاع العسكري.
من الجدير بالذكر أن المعلومات المقدمة هنا استندت إلى سياق الموضوع ولا تعكس بالضرورة التطورات الأخيرة في الواقع. يُنصح بالتحقق من المصادر الأخرى للحصول على معلومات محدثة حول هذا الموضوع.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي