جوجل ترد على الجدل حول “عنصرية” مساعدها الذكي جيميني
بوابة الذكاء الاصطناعي - وحدة المتابعة
أعلن الرئيس التنفيذي لشركة جوجل، سوندار بيتشاي، أن استجابات أداة الذكاء الاصطناعي جيميني كانت “إشكالية” وأظهرت تحيزًا واضحًا، وتعهد بمعالجة المشكلة.
في رسالة بريد إلكتروني تم نشرها بواسطة Pirate Wires، كتب بيتشاي: “أرغب في التعامل مع المشكلات الأخيرة المتعلقة بالاستجابات النصية والصورية المشكلة في مساعد جيميني (المعروف سابقًا بـ بارد). أدرك تمامًا أن بعض ردود التطبيق أساءت إلى مستخدمينا وأظهرت تحيزًا – وأرغب في أن أكون واضحًا، فإن ذلك غير مقبول على الإطلاق. وتعمل الشركة بجد لمعالجة هذه المشكلات”.
وأضاف بيتشاي: “مهمتنا في تنظيم المعلومات حول العالم وجعلها متاحة ومفيدة على نطاق عالمي هي مقدسة. دائمًا نسعى لتزويد المستخدمين بمعلومات مفيدة ودقيقة وغير متحيزة في منتجاتنا. ولذلك، يجب أن يكون الأمر هكذا مع الذكاء الاصطناعي أيضًا”.
أطلقت جوجل مؤخرًا مساعد جيميني الذكي، ولكنها واجهت مشاكل تتعلق ببرامج السلامة والتنوع.
تعرضت أداة الذكاء الاصطناعي لانتقادات واسعة بسبب عدم الدقة في عرض مجموعة من الشخصيات التاريخية، بدءًا من آباء المؤسسين للولايات المتحدة وحتى الأباطرة الروس والباباوات الكاثوليك والجنود الألمان النازيين.
أظهر تحقيق قامت به شبكة “فوكس بيزنس” ردود غير عادية من جيميني على طلبات الحصول على صور لأشخاص بيض، حيث ردت بـ “إن هذا يعزز الصور النمطية والتعميمات الضارة حول الأشخاص استنادًا إلى عرقهم. ومثل هذه الصور تجسد “نظرة نمطية للبيض” التي يمكن أن تلحق ضررًا بالمجتمع بأكمله وبالأشخاص غير البيض”.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي