حل فريق مخاطر الذكاء الاصطناعي طويلة الأجل في OpenAI
بوابة الذكاء الاصطناعي - وحدة المتابعة

في يوليو من العام الماضي، أعلنت OpenAI عن تشكيل فريق بحثي جديد سيكون مسؤولا عن الاستعداد لمجيء الذكاء الاصطناعي فائق الذكاء القادر على المراوغة وإخضاع مبتكريه. وتم تعيين إيليا سوتسكوفر، كبير علماء OpenAI وأحد مؤسسي الشركة، كمشارك في قيادة هذا الفريق الجديد. وقالت OpenAI إن الفريق سيحصل على 20% من قدرات الحوسبة لديها.
الآن، يؤكد OpenAI أن “فريق المحاذاة الفائقة” لديها لم يعد موجودًا، وذلك بعد رحيل العديد من الباحثين المعنيين، وخبر رحيل سوتسكوفر عن الشركة يوم الثلاثاء، واستقالة الشريك الآخر في قيادة الفريق. وسيتم دمج أعمال هذه المجموعة في جهود البحث الأخرى لـ OpenAI.
إن رحيل سوتسكوفر كان عنوانًا رئيسيًا، فعلى الرغم من مساعدته الرئيس التنفيذي سام ألتمان في تأسيس OpenAI في عام 2015 ووضع اتجاه البحث الذي أدى إلى ChatGPT، إلا أنه كان أيضًا أحد الأعضاء الأربعة في مجلس الإدارة الذين أقالوا ألتمان في نوفمبر. تم إعادة ألتمان إلى منصب الرئيس التنفيذي بعد خمسة أيام من الفوضى بعد ثورة جماهيرية من موظفي OpenAI وتوسيط صفقة انسحب بموجبها سوتسكوفر واثنان آخران من أعضاء مجلس الإدارة.
وبعد ساعات من الإعلان عن رحيل سوتسكوفر يوم الثلاثاء، نشر جان ليك، الباحث السابق في DeepMind الذي كان الشريك الآخر في قيادة فريق المحاذاة الفائقة، منشورًا على X يعلن فيه استقالته.
لم يستجب كل من سوتسكوفر وليك لطلبات التعليق. ولم يقدم سوتسكوفر تفسيرًا لقراره بالرحيل ولكنه قدم دعمه للمسار الحالي لـ OpenAI في منشور على X. “لقد كان مسار الشركة أقل من معجزة، وأنا واثق من أن OpenAI ستبني الذكاء الاصطناعي العام الذي يكون آمنًا ومفيدًا” تحت قيادتها الحالية، كما كتب.
نشر ليك سلسلة من التغريدات يوم الجمعة شرح فيها أن قراره جاء نتيجة لاختلافه حول أولويات الشركة ومدى تخصيص الموارد لفريقه.
“لقد اختلفت مع قيادة OpenAI بشأن الأولويات الأساسية للشركة لفترة طويلة، حتى وصلنا إلى نقطة الانفجار”، كما كتب ليك. “على مدار الأشهر الماضية، كان فريقي يُبحر في عكس الرياح. في بعض الأحيان كنا نناضل من أجل الحوسبة وأصبح من الصعب للغاية إنجاز هذا البحث الحاسم”.
يُضاف حل فريق المحاذاة الفائقة في OpenAI إلى الأدلة الأخيرة على الاضطرابات داخل الشركة على إثر أزمة الحوكمة في نوفمبر الماضي. وفقًا لتقرير صدر عن The Information الشهر الماضي، تم فصل باحثين اثنين من هذا الفريق، ليوبولد أشينبرينر وبافل إزمايلوف، بسبب تسريب أسرار الشركة. وغادر عضو آخر في الفريق، ويليام سوندرز، OpenAI في فبراير، وفقًا لمنشور في منتدى على الإنترنت باسمه.
ويبدو أن باحثين آخرين في OpenAI يعملون على سياسات الذكاء الاصطناعي وحوكمته قد غادروا الشركة أيضًا مؤخرًا. ترك كولين أوكيف دوره كرئيس بحوث في جبهات السياسة في أبريل، وفقًا لموقع LinkedIn. وأشارت منشورات في منتديات على الإنترنت إلى أن دانيال كوكوتاجلو، وهو باحث في OpenAI شارك في تأليف العديد من الأوراق البحثية حول مخاطر نماذج الذكاء الاصطناعي الأكثر قدرة، “استقال من OpenAI بسبب فقدان الثقة في أنها ستتصرف بمسؤولية في وقت ظهور الذكاء الاصطناعي العام”. ولم يرد أي من الباحثين الذين غادروا الشركة على طلبات التعليق.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي