تقنيات الذكاء الاصطناعي تقدم تقدم حلاً لمشكلة الخلل في نماذج اللغة الكبيرة LLMs
منصة الذكاء الاصطناعي “متابعات”
تُعد التقنيات الحديثة للذكاء الاصطناعي وخاصة نماذج اللغة الكبيرة (LLMs)، مثل ChatGPT الذي طورته OpenAI، مصدر إثارة للجدل وتحمل إمكانات هائلة. باتت هذه التقنيات لا تُمكننا من الهروب عنها، إذ أظهرت الإحصائيات أن أكثر من ربع الاستثمارات في شركات البداية في الولايات المتحدة في العام الحالي كانت تتجه نحو شركات تعمل في مجال الذكاء الاصطناعي. وفي حدث مؤخراً قامت به OpenAI للمطورين، تم الإعلان أن ChatGPT ما زالت واحدة من الخدمات الأكثر نموًا على الإطلاق.
ومع ذلك، لا يزال هناك شيء ما يعاني من النقصان، أو بالأحرى، يتم إضافة شيء غير ملائم. أحد أكبر المشاكل في LLMs هو قدرتها على تخيل الأشياء، أي أنها تُبتكر أشياء غير حقيقية. تختلف الأرقام المتداولة في هذا الصدد، ولكن نسبة تتراوح بين 15% و 20% هي الأكثر شيوعًا. وتوجد نظام واحد في Google حقق نسبة تبلغ 27%. ولو كان الأمر يتوقف هنا، لما كان الوضع سيئًا بهذا الشكل، ولكن المشكلة تكمن في أنها تظهر بقوة وتأكيد أثناء القيام بذلك. يشبه جون ماكلون، مدير الاتصال الفني والاستراتيجية في Wolfram Research، هذا الأمر بـ “المتفلسف الصاخب الذي يمكنك أن تلتقي به في الحانة”، ويضيف ماكلون: “إنه يقول أي شيء يجعله يبدو ذكيًا، وليس من الضروري أن يكون صحيحًا”.
ومع ذلك، فإن مثل هذه الأوهام لا يمكن تجنبها عند التعامل مع LLMs. كما يشرح ماكلون، فإن الأمر يتعلق بالغرض المرجو تحقيقه. يقول ماكلون: “أعتقد أن أحد الأمور التي ينساها الناس في هذه الفكرة عن الـ ‘آلة تفكير’ هو أن جميع هذه الأدوات مصممة وفقًا لغرض محدد، وتنفذ الآلية على هذا الغرض. والغرض لم يكن ممنصة الذكاء الاصطناعي “متابعات” تعزز موثوقية الذكاء الاصطناعي التوليدية.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي