جامعة ميريلاند تتصدى لتحديات الأخلاقيات في الذكاء الاصطناعي: جسر بين البرمجة والضمير
بوابة الذكاء الاصطناعي - وحدة المتابعة

مع تزايد استخدام أنظمة الذكاء الاصطناعي في عمليات صنع القرار الحاسمة في حياتنا اليومية، أصبح دمج الأطر الأخلاقية في تطوير الذكاء الاصطناعي أولوية بحثية ملحة. وفي جامعة ميريلاند، تعمل فرق بحثية متعددة التخصصات على معالجة التفاعل المعقد بين التفكير المعياري، وخوارزميات تعلم الآلة، والأنظمة الاجتماعية التقنية.
وفي حوارٍ حديثٍ مع “أخبار الذكاء الاصطناعي”، يجمع الباحثان ما بعد الدكتوراه، إيلاريا كانافوتو وفايشنف كاميسواران، خبراتهما في الفلسفة وعلوم الحاسوب وتفاعل الإنسان مع الحاسوب، لمعالجة التحديات الملحة في أخلاقيات الذكاء الاصطناعي. ويتناول عملهما الأسس النظرية لدمج المبادئ الأخلاقية في بنى الذكاء الاصطناعي، والآثار العملية لنشر الذكاء الاصطناعي في المجالات عالية المخاطر مثل التوظيف.
فهم المعايير في أنظمة الذكاء الاصطناعي:
تركز إيلاريا كانافوتو، باحثة في مبادرة الذكاء الاصطناعي القائم على القيم (VCAI) في جامعة ميريلاند، والمنتمية إلى معهد الدراسات المتقدمة في الحاسوب وقسم الفلسفة، على سؤال أساسي: كيف يمكننا غرس الفهم المعياري في أنظمة الذكاء الاصطناعي؟ مع تزايد تأثير الذكاء الاصطناعي على القرارات التي تؤثر على حقوق الإنسان ورفاهيته، يجب على هذه الأنظمة فهم القواعد الأخلاقية والقانونية.
وتشرح كانافوتو قائلةً: “السؤال الذي أبحث فيه هو: كيف نحصل على هذا النوع من المعلومات، هذا الفهم المعياري للعالم، في آلة يمكن أن تكون روبوتًا، أو روبوت محادثة، أو أي شيء من هذا القبيل؟”
ويجمع بحثها بين نهجين:
- النهج من أعلى إلى أسفل: هذه الطريقة التقليدية تتضمن برمجة القواعد والمعايير صراحةً في النظام. لكن كانافوتو تشير إلى أنه “من المستحيل ببساطة تدوينها، فهناك دائمًا مواقف جديدة تنشأ.”
- النهج من أسفل إلى أعلى: طريقة أحدث تستخدم تعلم الآلة لاستخراج القواعد من البيانات. وبالرغم من مرونتها، إلا أنها تفتقر إلى الشفافية: “تكمن مشكلة هذا النهج في أننا لا نعرف حقًا ما يتعلمه النظام، ومن الصعب جدًا شرح قراراته”، كما تُلاحظ كانافوتو.
وتعمل كانافوتو وزملاؤها، جيف هورتي وإريك باكويت، على تطوير نهجٍ هجينٍ يجمع أفضل ما في كلا النهجين. ويهدفون إلى إنشاء أنظمة ذكاء اصطناعي قادرة على تعلم القواعد من البيانات مع الحفاظ على عمليات صنع قرار قابلة للتفسير، قائمة على التفكير القانوني والمعياري.
تأثير الذكاء الاصطناعي على ممارسات التوظيف ودمج ذوي الإعاقة:
بينما تركز كانافوتو على الأسس النظرية، يدرس فايشنف كاميسواران، المنتمي إلى معهد جامعة ميريلاند الوطني للعلوم لثقة الذكاء الاصطناعي والقانون والمجتمع، الآثار الواقعية للذكاء الاصطناعي، لا سيما تأثيره على الأشخاص ذوي الإعاقة.
ويتناول بحث كاميسواران استخدام الذكاء الاصطناعي في عمليات التوظيف، وكيف يمكن لهذه الأنظمة أن تميز بشكل غير مقصود ضد المرشحين ذوي الإعاقة. ويشرح: “لقد عملنا على فتح الصندوق الأسود قليلاً، ومحاولة فهم ما تفعله هذه الخوارزميات في الخلفية، وكيف تبدأ في تقييم المرشحين.”
وتكشف نتائجه أن العديد من منصات التوظيف التي تعتمد على الذكاء الاصطناعي تعتمد بشكل كبير على الإشارات السلوكية المعيارية، مثل التواصل البصري وتعبيرات الوجه، لتقييم المرشحين. وهذا النهج يمكن أن يُضعف بشكل كبير الأفراد ذوي الإعاقات الخاصة. فعلى سبيل المثال، قد يواجه المرشحون ذوو ضعف البصر صعوبة في الحفاظ على التواصل البصري، وهي إشارة تفسرها أنظمة الذكاء الاصطناعي غالبًا على أنها نقص في المشاركة.
ويحذر كاميسواران قائلاً: “من خلال التركيز على بعض هذه الصفات وتقييم المرشحين بناءً على هذه الصفات، تميل هذه المنصات إلى تفاقم أوجه عدم المساواة الاجتماعية القائمة.” ويجادل بأن هذا الاتجاه قد يُزيد من تهميش الأشخاص ذوي الإعاقة في القوى العاملة، وهي فئة تواجه بالفعل تحديات كبيرة في التوظيف.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي