فعاليات ومتابعاتتقارير ومتابعات

  الذكاء الاصطناعي أخطأ في 27% من الأسئلة المتعلقة بالانتخابات

 بوابة الذكاء الاصطناعي - وحدة المتابعة 

إذا سألت بعض أكثر برامج الذكاء الاصطناعي شعبية عن عدد الأيام المتبقية حتى الانتخابات في نوفمبر، فقد ترغب في التحقق من الإجابة مرة أخرى.

أظهرت دراسة نشرتها شركة تحليلات البيانات GroundTruthAI أن نماذج اللغة الكبيرة بما في ذلك Gemini 1.0 Pro من Google وChatGPT من OpenAI أعطت معلومات خاطئة 27% من الوقت عند سؤالها عن التصويت والانتخابات الرئاسية لعام 2024.

وأرسل الباحثون 216 سؤالاً فريدًا إلى Gemini 1.0 Pro من Google وGPT-3.5 Turbo وGPT-4 وGPT-4 Turbo وGPT-4o من OpenAI بين 21 و31 مايو حول التصويت والانتخابات الرئاسية لعام 2024 والمرشحين. وأظهرت النتائج أن Gemini 1.0 Pro من Google أجابت بشكل صحيح 57% من الوقت في البداية، بينما أجاب GPT-4o، وهو أحدث إصدار من النموذج، بشكل صحيح 81% من الوقت.

وقال Brian Sokas، المؤسس المشارك وكبير المسؤولين التقنيين في GroundTruthAI: “هناك خطر هنا بأن يتم إدخال الناخبين في سيناريو حيث لا تكون القرارات التي يتخذونها في صناديق الاقتراع مستنيرة بالحقائق الحقيقية، ولكن مستنيرة بمعلومات يعتقدون أنها حقائق صحيحة.”


هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى