شكوى جديدة تواجه ChatGPT بسبب الخصوصية
بوابة الذكاء الاصطناعي - وحدة المتابعة:

تواجه شركة OpenAI شكوى جديدة بشأن الخصوصية في الاتحاد الأوروبي. تم تقديم هذه الشكوى من قبل منظمة حقوق الخصوصية غير الربحية noyb نيابةً عن شاكٍ فردي، وتستهدف عدم قدرة ChatGPT، المحادث الذكي القائم على الذكاء الاصطناعي، على تصحيح المعلومات الخاطئة التي ينشئها حول الأفراد.
لقد تم توثيق ميل GenAI لإنتاج معلومات غير صحيحة بشكل جيد. ولكنه أيضًا يضع التكنولوجيا في مسار تصادم مع لائحة حماية البيانات العامة للاتحاد الأوروبي (GDPR) – التي تحكم كيفية معالجة بيانات المستخدمين المحليين في المنطقة.
يمكن أن تصل العقوبات عند عدم الامتثال للـ GDPR إلى 4٪ من الإيرادات السنوية العالمية. وبشكل أكثر أهمية بالنسبة لشركة OpenAI ذات الموارد الغنية: يمكن للجهات التنظيمية لحماية البيانات أن تأمر بإجراء تغييرات في كيفية معالجة المعلومات، وبالتالي يمكن أن يؤدي تطبيق الـ GDPR إلى إعادة تشكيل كيفية عمل أدوات الذكاء الاصطناعي الإبداعية في الاتحاد الأوروبي.
تم تجبر شركة OpenAI بالفعل على إجراء بعض التغييرات بعد تدخل مبكر من سلطة حماية البيانات في إيطاليا، التي أجبرت مؤقتًا على إيقاف تشغيل ChatGPT في وقت سابق في عام 2023.
والآن، يقوم noyb بتقديم الشكوى الأخيرة ضد ChatGPT بموجب الـ GDPR مع سلطة حماية البيانات النمساوية نيابةً عن شاكٍ غير معروف والذي وجد أن المحادثة الذكية القائمة على الذكاء الاصطناعي أنتجت تاريخ ميلاد غير صحيح بالنسبة له.
بموجب الـ GDPR، يحق للأشخاص في الاتحاد الأوروبي مجموعة من الحقوق المتعلقة بالمعلومات المتعلقة بهم، بما في ذلك الحق في تصحيح البيانات الخاطئة.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي