انتشار المعلومات المضللة عبر أنظمة الذكاء الاصطناعي
بوابة الذكاء الاصطناعي - وحدة المتابعة
في أواخر عام 2023، انتشر ادعاء خاطئ حول المناظرة الرئاسية بين مرشحي الحزبين الرئيسيين في الولايات المتحدة عبر منصات الذكاء الاصطناعي المعروفة مثل OpenAI’s ChatGPT وMicrosoft’s Copilot. هذا الادعاء المضلل تضمن معلومات غير صحيحة عن طبيعة وتفاصيل هذه المناظرة الرئاسية.
تحقيقات أجرتها وسائل إعلام موثوقة كشفت أن هذه المعلومات الخاطئة تم إدراجها في نماذج اللغة الطبيعية التي تدرب عليها كل من ChatGPT وCopilot. وأوضحت هذه التحقيقات أن هذه المنصات للذكاء الاصطناعي لم تتمكن من التمييز بين المعلومات الصحيحة والمضللة، مما أدى إلى تكرار هذا الادعاء الخاطئ.
هذه الحادثة سلطت الضوء على الحاجة الماسة إلى تحسين دقة البيانات والمعلومات المستخدمة في تدريب أنظمة الذكاء الاصطناعي. كما أبرزت الحاجة إلى وضع آليات فعالة لاكتشاف وتصحيح المعلومات المضللة قبل إتاحتها للجمهور. سوف تكون هذه التحديات محور اهتمام الباحثين والمطورين في مجال الذكاء الاصطناعي في المستقبل القريب.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي