دراسة أمريكية تحذر من غموض الذكاء الاصطناعي

منصة الذكاء الاصطناعي – متابعات
أظهرت دراسة حديثة أجريت في جامعة ستانفورد أن الشركات العاملة في مجال الذكاء الاصطناعي تحيط نماذجها بمستوى كبير من الغموض، مما يثير مخاوف بشأن نقص المساءلة وغياب الشفافية. على الرغم من التقدم السريع الذي يشهده هذا المجال، فإن الدراسة تشير إلى أن كبرى الشركات لا تكشف بشكل كافٍ عن تفاصيل مهمة، مثل طريقة بناء النماذج وآليات عملها.
يشعر الخبراء بالقلق إزاء مدى السرية والغموض الذي يحيط بعمليات تطوير نماذج الذكاء الاصطناعي الخاصة بالشركات التقنية. في شهر مارس من هذا العام، قامت شركة أوبن إيه آي بنشر تفاصيل نموذج الذكاء الاصطناعي “تشات جي بي تي” ChatGPT، وعلى الرغم من توفر معلومات مفصلة على مئات الصفحات، إلا أن الباحثين فوّتوا بعض التفاصيل الحاسمة، مثل طريقة بناء النموذج وكيفية عمله.
ووفقًا لتقرير موقع “وايرد” المتخصص في التقنية، فإن هذا الأمر ليس صدفة، حيث تسعى الشركات الرائدة في مجال الذكاء الاصطناعي إلى الحفاظ على سرية آلياتها المتقدمة، بسبب مخاوف من سوء استخدام التكنولوجيا ومنافسة أقوى.
تناولت الدراسة الجديدة التي أجراها باحثو جامعة ستانفورد مستوى السرية المفروضة حول نموذج الذكاء الاصطناعي GPT-4 وأنظمة أخرى متقدمة، وأشار بعض الباحثين إلى وجود تغيير غامض في أساس عمل تلك الأنظمة، والذي لا يعرفه الكثيرون. وحذر خبراء آخرون من أن هذا التوجه قد يؤدي إلى تقليص الشفافية والمساءلة، مما يتسبب في تراجع مستوى الموثوقية والسلامة.
تمحورت الدراسة حول عشرة أنظمة مختلفة للذكاء الاصطناعي من شركات مثل غوغل وأوبن إيه آي وأمازون، وشملت أيضًا تحليل نماذج الذكاء الاصطناعي “مفتوحة المصدر” المجانة. وتوصلت الدراسة إلى أن هذه الشركات لم تفصح بشكل كافٍ عن تفاصيل حول هذه الأنظمة، ما يتسبب في نقص المعرفة والفهم المتاح للجمهور والباحثين.
تشير الدراسة أيضًا إلى أن هناك حاجة ملحة للتوازن بين الحاجة إلى الحفاظ على السرية والملكية الفكرية للشركات وبين الشفافية والمساءلة المطلوبة في هذا المجال. فعلى الرغم من أهمية حماية المعلومات الحساسة والتكنولوجيا المتقدمة، إلا أن الشفافية والمساءلة تلعبان دورًا حاسمًا في ضمان استخدام الذكاء الاصطناعي بشكل آمن وموثوق.
لذلك، ينصح الباحثون والخبراء بضرورة تعزيز الشفافية في مجال الذكاء الاصطناعي وتوفير مزيد من المعلومات حول طرق التطوير والتدريب والعمل لهذه الأنظمة. كما يُشدد على أهمية وجود إطار قانوني وأخلاقي قوي ينظم استخدام التكنولوجيا الذكية ويحمي المجتمع والأفراد من أي استغلال غير مشروع أو ضرر.
مع تطور الذكاء الاصطناعي واستخداماته المتزايدة في مختلف المجالات، فإن ضمان الشفافية والمساءلة يعد أمرًا حاسمًا لبناء ثقة المجتمع وتحقيق فوائد فعّالة ومستدامة من هذه التكنولوجيا المبتكرة.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي