تسارع وتيرة الابتكار في مجال الذكاء الاصطناعي – هل هناك مجال للأخلاق لمواكبته؟
بوابة الذكاء الاصطناعي - وحدة المتابعة
إذا كانت الأسبوع عادةً وقتًا طويلاً في السياسة، فإنها هاوية عميقة عندما يتعلق الأمر بالذكاء الاصطناعي. إن وتيرة الابتكار من قِبَل المزودين الرئيسيين هي شيء، وشراسة الابتكار مع تصاعد المنافسة هو أمر آخر تمامًا. ولكن هل تتخلف الآثار الأخلاقية لتكنولوجيا الذكاء الاصطناعي عن هذه الوتيرة السريعة؟
أعلنت شركة Anthropic، المبتكرة لـ Claude، إصدار Claude 3 هذا الأسبوع وادعت أنه “معيارًا جديدًا للذكاء”، وتتفوق على منافسيها مثل ChatGPT و Gemini التابعة لشركة Google. تقول الشركة إنها حققت أيضًا مهارة تقارب الإنسان في مهام مختلفة. في الواقع، كما أشار أليكس ألبرت، مهندس البرامج في Anthropic، خلال مرحلة اختبار Claude 3 Opus، النموذج الأكثر قوة للنماذج اللغوية الكبيرة، أظهر النموذج علامات على الوعي بأنه يتم تقييمه.
فيما يتعلق بتحويل النص إلى صورة، أعلنت شركة Stability AI عن معاينة مبكرة لـ Stable Diffusion 3 في نهاية فبراير، بعد أيام قليلة من كشف OpenAI عن Sora، نموذج ذكاء اصطناعي جديد قادر على إنتاج مقاطع فيديو واقعية تقريبًا وعالية الدقة من نصوص بسيطة.
وفي حين تستمر التقدم، فإن الكمال يظل صعب المنال. تعرض نموذج Gemini التابع لشركة Google لانتقادات بسبب إنتاج صور غير دقيقة تاريخيًا، مما أعاد إثارة قلق الناس بشأن التحيز في أنظمة الذكاء الاصطناعي، كما ورد في هذا التقرير.
تعتبر الحصول على هذا الأمر الصحيح أولوية رئيسية للجميع. ردت Google على مخاوف Gemini بتوقيف إنشاء صور الأشخاص في الوقت الحاضر. وفي بيان، قالت الشركة إن إنشاء صور الأشخاص بواسطة Gemini “يقدم مجموعة واسعة من البشر.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي