ألاسكا تستخدم بيانات مُختلقة من الذكاء الاصطناعي في وضع سياسات تعليمية
بوابة الذكاء الاصطناعي - وحدة المتابعة
كشفت أحداثٌ غير متوقعة في ولاية ألاسكا الأمريكية عن مخاطر الاعتماد على الذكاء الاصطناعي في صناعة القرارات، خاصةً في المجالات الحساسة كوضع السياسات التعليمية. فقد استخدم مشرعون في ألاسكا، وفقًا لتقرير نشرته صحيفة “ذا ألاسكا بيكون”، اقتباسات مُولّدة بواسطة الذكاء الاصطناعي ولكنها غير دقيقة لتبرير اقتراحٍ يقضي بحظر الهواتف المحمولة في المدارس.
وقد قدمت إدارة التعليم والتنمية المبكرة في ألاسكا مشروع سياسة يحتوي على إشارات لدراسات أكاديمية غير موجودة أصلاً. فقد استخدمت مفوضة التعليم، دينا بيشوب، تقنية توليد الذكاء الاصطناعي لصياغة مشروع سياسة الهواتف المحمولة، حيث تضمن الوثيقة المُولّدة مراجع علمية مُزعومة لم يتم التحقق من صحتها أو دقتها، دون الإفصاح عن استخدام الذكاء الاصطناعي في إعدادها. وقد وصل جزء من المحتوى المُولّد بواسطة الذكاء الاصطناعي إلى مجلس إدارة التعليم والتنمية المبكرة في ألاسكا قبل مراجعته، مما قد يكون أثر على مداولات المجلس.
وزعمت المفوضة بيشوب لاحقًا أن الذكاء الاصطناعي استُخدم فقط “لإنشاء الاقتباسات” في مسودة أولية، مؤكدةً أنها صححت الأخطاء قبل الاجتماع عن طريق إرسال اقتباسات مُحدّثة لأعضاء المجلس. ومع ذلك، فإن “الهلوسات” التي يُنتجها الذكاء الاصطناعي – وهي معلومات مُختلقة ينتجها الذكاء الاصطناعي عندما يحاول إنشاء محتوى معقول ولكنه غير مُتحقق منه – كانت لا تزال موجودة في الوثيقة النهائية التي صوّت عليها المجلس.
ويُوجّه القرار النهائي، المنشور على موقع إدارة التعليم والتنمية المبكرة، الإدارة بوضع سياسة نموذجية لتقييد استخدام الهواتف المحمولة في المدارس. وللأسف، تضمنت الوثيقة ستة اقتباسات، أربعة منها تبدو وكأنها من مجلات علمية محترمة، ولكنها في الواقع مُختلقة بالكامل، مع عناوين مواقع إلكترونية تُشير إلى محتوى غير ذي صلة. يُظهر هذا الحادث مخاطر استخدام البيانات المُولّدة بواسطة الذكاء الاصطناعي دون التحقق البشري المناسب، خاصةً عند اتخاذ القرارات المتعلقة بالسياسات.
ليست حالة ألاسكا فريدة من نوعها، فـ”هلوسات” الذكاء الاصطناعي أصبحت شائعة بشكل متزايد في العديد من القطاعات المهنية. فعلى سبيل المثال، واجه بعض المحامين عواقب لاستخدامهم اقتباسات قضائية مُختلقة مُولّدة بواسطة الذكاء الاصطناعي في المحكمة. وبالمثل، تضمنت بعض الأوراق الأكاديمية المُنشأة باستخدام الذكاء الاصطناعي بيانات مُشوّهة ومصادر مُختلقة، مما أثار مخاوف جدية بشأن المصداقية. فخوارزميات الذكاء الاصطناعي التوليدي، التي تهدف إلى إنتاج محتوى بناءً على الأنماط وليس الدقة الواقعية، يمكنها بسهولة إنتاج اقتباسات مُضللة إذا لم يتم التحقق منها.
يُحمل الاعتماد على البيانات المُولّدة بواسطة الذكاء الاصطناعي في صنع السياسات، خاصةً في مجال التعليم، مخاطر كبيرة. فإن السياسات التي تُوضع بناءً على معلومات مُختلقة قد تُسيء تخصيص الموارد وقد تضر بالطلاب. فعلى سبيل المثال، قد تُحوّل سياسة تقييد استخدام الهواتف المحمولة، القائمة على بيانات مُختلقة، الانتباه عن تدخلات أكثر فعالية وقائمة على الأدلة، والتي يمكن أن تُفيد الطلاب بشكل حقيقي.
علاوة على ذلك، فإن استخدام بيانات الذكاء الاصطناعي غير المُتحقّق منها يمكن أن يقوّض الثقة العامة في كل من عملية صنع السياسات وتقنية الذكاء الاصطناعي نفسها. وتُبرز هذه الحوادث أهمية التحقق من الحقائق والشفافية والحذر عند استخدام الذكاء الاصطناعي في مجالات صنع القرار الحساسة، خاصةً في التعليم، حيث يمكن أن يكون تأثيره على الطلاب بالغًا.
حاول مسؤولو ألاسكا التقليل من أهمية الموقف، مشيرين إلى أن الاقتباسات المُختلقة كانت بمثابة “علامات مكان” مُعتزمة للتعديل لاحقًا. ومع ذلك، فقد تم تقديم الوثيقة التي تحتوي على “علامات المكان” إلى المجلس واستُخدمت كأساس للتصويت، مما يُبرز الحاجة إلى رقابة صارمة عند استخدام الذكاء الاصطناعي.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي