عالمة الحاسوب في جامعة ستانفورد: سياسات الذكاء الاصطناعي يجب أن تستند إلى “العلم، لا الخيال العلمي”
بوابة الذكاء الاصطناعي - وحدة المتابعة

دعت فيفي لي، عالمة الحاسوب في جامعة ستانفورد ورئيسة شركة ناشئة، تُعرف أحياناً بـ “عرابة الذكاء الاصطناعي”، إلى اعتماد ثلاثة مبادئ أساسية في رسم سياسات الذكاء الاصطناعي المستقبلية، وذلك قبل انعقاد قمة “AI Action Summit” في باريس الأسبوع القادم.
أولاً، شددت لي على ضرورة أن تستند هذه السياسات إلى “العلم، لا الخيال العلمي”، مؤكدةً على أهمية التركيز على الواقع الحالي للذكاء الاصطناعي، بدلاً من السيناريوهات المستقبلية المُبالغ فيها، سواءً كانت دَيْنَوْتُوبيَّة أو كارثية. وأوضحت أن من الضروري فهم أن برامج الدردشة ومساعدي الذكاء الاصطناعي “ليست أشكالاً من الذكاء تمتلك نوايا أو إرادة حرة أو وعي”، لتجنب “التشتيت الناتج عن السيناريوهات البعيدة الاحتمال” والتركيز بدلاً من ذلك على “التحديات الحيوية”.
ثانياً، دعت إلى اعتماد نهج “براغماتي، لا أيديولوجي” في وضع السياسات، بحيث تُصاغ هذه السياسات لتقليل العواقب غير المقصودة مع تشجيع الابتكار في آن واحد.
وأخيراً، أكدت لي على ضرورة تمكين “جميع أطراف منظومة الذكاء الاصطناعي، بما في ذلك مجتمعات البرمجيات المفتوحة المصدر والأوساط الأكاديمية”. وقالت إن “الوصول المفتوح إلى نماذج الذكاء الاصطناعي والأدوات الحسابية أمر بالغ الأهمية للتقدم. فإن الحد من هذا الوصول سيخلق حواجز ويُبطئ الابتكار، خاصةً بالنسبة للمؤسسات الأكاديمية والباحثين الذين يمتلكون موارد أقل من نظرائهم في القطاع الخاص”.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناع