مخطط سياسة الذكاء الاصطناعي الحرج لعام 2024
منصة الذكاء الاصطناعي ـ متابعات
اعتبر العديد من الخبراء عام 2023 عام الذكاء الاصطناعي، وتم اختيار هذا المصطلح في قوائم “كلمة العام” للعديد من المصادر. فعلى الرغم من تأثيره الإيجابي على الإنتاجية والكفاءة في مكان العمل، فإن الذكاء الاصطناعي أيضًا قد أتى بعدد من المخاطر الناشئة على الشركات.
على سبيل المثال، كشف استطلاع للرأي أجرته شركة “هاريس بول” وعهدت به “أوديت بورد” أن نحو نصف الأمريكيين العاملين (51%) يستخدمون حاليًا أدوات مدعومة بالذكاء الاصطناعي في العمل، وهو أمر لا شك فيه يعود جزئيًا إلى “تشات جي بي تي” وغيرها من حلول الذكاء الاصطناعي الإبداعي. وفي الوقت نفسه، قال نصف العاملين (48%) إنهم يدخلون بيانات الشركة في أدوات الذكاء الاصطناعي غير المُقدمة من قبل شركتهم لمساعدتهم في عملهم.
تعرض هذه الاندماج السريع لأدوات الذكاء الاصطناعي الإبداعي في مكان العمل تحديات أخلاقية وقانونية وخصوصية وعملية، مما يتطلب من الشركات تنفيذ سياسات جديدة وقوية تتعلق بأدوات الذكاء الاصطناعي الإبداعي. وحتى الآن، فإن معظم الشركات لم تتخذ ذلك — فقد كشف استطلاع حديث لـ “جارتنر” أن أكثر من نصف المؤسسات لا تمتلك سياسة داخلية بشأن الذكاء الاصطناعي الإبداعي، كما كشف استطلاع “هاريس بول” أن مجرد 37% من الأمريكيين العاملين لديهم سياسة رسمية تتعلق باستخدام أدوات الذكاء الاصطناعي غير المقدمة من قبل الشركة.
وعلى الرغم من أنه قد يبدو أمرًا صعبًا، فإن وضع مجموعة من السياسات والمعايير الآن يمكن أن يوفر للمؤسسات العديد من المشاكل في المستقبل.
أدى الانتشار السريع لأدوات الذكاء الاصطناعي الإبداعي إلى صعوبة متابة مواكبة إدارة مخاطر الذكاء الاصطناعي والحوكمة في مكان العمل، وهناك انفصال واضح بين التبني والسياسات الرسمية. أظهر استطلاع “هاريس بول” السابق أن 64% يرون استخدام أدوات الذكاء الاصطناعي آمنًا، مما يشير إلى أن العديد من العاملين والمؤسسات يمكن أن يغفلوا عن المخاطر.
تتنوع هذه المخاطر والتحديات، لكن ثلاثة من أبرزها هي:
- الثقة المفرطة: يحدث تأثير دونينغ-كروجر عندما يتم تقدير معرفتنا أو قدراتنا بشكل مبالغ فيه. لقد شهدنا هذا التجلى فيما يتعلق باستخدام الذكاء الاصطناعي؛ حيث يقدر العديد منا قدرات الذكاء الاصطناعي دون فهم حدوده. يمكن أن يؤدي ذلك إلى نتائج ناقصة أو غير دقيقة، ولكنه يمكن أيضًا أن يؤدي إلى حوادث أكثر خطورة، مثل إنتاج نتائج تنتهك قيود الاستخدام القانوني أو تسبب مخاطر للملكية الفكرية.
- الأمن والخصوصية: يحتاج الذكاء الاصطناعي إلى الوصول إلى كميات كبيرة من البيانات لكي يكون فعالًا بشكل كامل، ولكن ذلك يتضمن أحيانًا بيانات شخصية أو معلومات حساسة أخرى. هناك مخاطر ضمنية تأتي مع استخدام أدوات الذكاء الاصطناعي غير المدققة، لذا يجب على المؤسسات التأكد من استخدام أدوات تلبي معايير أمان البيانات الخاصة بها. هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي