النائب الأوروبي للخصوصية يثير المخاوف بشأن دقة بيانات ChatGPT
بوابة الذكاء الاصطناعي - وحدة المتابعة

أثار فريق عمل الناظر الأوروبي للخصوصية مخاوف بشأن برنامج الدردشة الذكي ChatGPT الذي طورته OpenAI، موضحًا أن التدابير المتخذة لضمان الشفافية غير كافية للامتثال لمبادئ دقة البيانات. وفي تقرير صدر يوم الجمعة، شدد الفريق على أن الجهود الرامية إلى منع سوء تفسير مخرجات ChatGPT مفيدة، ولكن لا تزال هناك حاجة إلى معالجة المخاوف المتعلقة بدقة البيانات بشكل كامل.
تم إنشاء الفريق من قبل الجهات الرقابية الوطنية على الخصوصية في أوروبا على خلفية المخاوف التي أثارتها السلطات في إيطاليا بشأن استخدام ChatGPT. وعلى الرغم من التحقيقات الجارية من قِبل الجهات التنظيمية الوطنية، لم يتم تقديم لمحة شاملة عن النتائج حتى الآن. وتمثل النتائج الواردة في التقرير فهمًا مشتركًا بين السلطات الوطنية.
دقة البيانات هي مبدأ أساسي في لوائح حماية البيانات في الاتحاد الأوروبي. ويسلط التقرير الضوء على الطبيعة الاحتمالية لنظام ChatGPT، والتي يمكن أن تؤدي إلى مخرجات متحيزة أو خاطئة. وحذر التقرير أيضًا من أن المستخدمين قد يدركون مخرجات ChatGPT على أنها دقيقة من الناحية الوقائعية، بغض النظر عن دقتها الفعلية، مما قد ينطوي على مخاطر محتملة، خاصةً فيما يتعلق بالمعلومات المتعلقة بالأفراد.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي