تحقيق إيطالي بشأن منصة ChatGPT التابعة لشركة OpenAI
منصة الذكاء الاصطناعي ـ متابعات
أصدر Garante per la protezione dei dati personali، رئيس الهيئة الإيطالية لحماية البيانات، بيانًا في 29 يناير، كشف فيه أنه قد أبلغ شركة OpenAI بوجود انتهاكات محتملة للوائح حماية البيانات من خلال تطبيقها للذكاء الاصطناعي ChatGPT. ووفقًا للهيئة، يأتي هذا الاكتشاف بعد التحقيق الذي بدأته الهيئة في مارس الماضي. وقد تم منح OpenAI فترة 30 يومًا لتقديم حجج الدفاع في استجابة للاتهامات.
في مارس من العام الماضي، فرضت هيئة مراقبة البيانات الإيطالية حظراً مؤقتاً على ChatGpt بسبب المخاوف المتعلقة بمعالجة بيانات المستخدمين الإيطاليين. في ذلك الوقت، تم تنبيه بوجود مخاوف بشأن غياب أساس قانوني لجمع ومعالجة البيانات الشخصية بشكل مكثف لأغراض تدريب الخوارزميات. بالإضافة إلى ذلك، فإن غياب آليات التحقق من العمر يشكل مخاطر تعرض الأطفال لاستجابات غير مناسبة داخل المنصة. وفي نهاية أبريل من نفس العام، استوفت OpenAI المتطلبات التي حددها الهيئة. ومنذ ذلك الحين، أصبحت منصة ChatGPT متاحة للمستخدمين الإيطاليين.
لماذا يهم ذلك؟
بينما تتكشف التفاصيل، ستكون لدى OpenAI فرصة لتقديم دفاعها ومعالجة المخاوف التي أثارتها هيئة حماية البيانات الإيطالية. من المرجح أن نتيجة هذ التحقيق ستكون لها آثار ليس فقط على ChatGPT ولكن أيضًا على المشهد الأوسع لتطبيقات الذكاء الاصطناعي والامتثال لمعايير حماية البيانات في الاتحاد الأوروبي.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي