“أخلاقيات وحوكمة البيانات من أجل الخير في معرض الذكاء الاصطناعي والبيانات الضخمة”
منصة الذكاء الاصطناعي – متابعات
الذكاء الاصطناعي ليس مجرد صيحة زمان، ولم يعد مجالًا متخصصًا فقط. في هذا العام، كانت هذه المسألة مدمجة في جدول أعمال المؤتمرات التكنولوجية في لندن، حيث تمتلئ جميع الفعاليات بالأشخاص الذين يحرصون على التعلم ومشاركة تجاربهم.
تميز معرض الذكاء الاصطناعي والبيانات الضخمة بمجموعة رائعة من المتحدثين، الذين استهدفوا ليس فقط الأشخاص العاملين في مجال البيانات، بل جعلوا المواضيع تبدو مفهومة تمامًا لشخص مثلي الذي ليس عالمًا في مجال البيانات. بصفتي الرئيس التنفيذي لجمعية خيرية تعنى بالبنية التحتية، فإنني أعلم أن المستفيدين لدينا لا يعملون بشكل ضيق مع البيانات، ولا يضعونها في صدارة اهتماماتهم. لذا، كان من المثير للاهتمام رؤية كيف يؤثر الذكاء الاصطناعي والبيانات الضخمة على مجموعة متنوعة من القطاعات المختلفة، وكيف يعتمدون على استراتيجيات مختلفة للتعامل مع التحديات الجديدة.
استمتعت بشكل خاص بالمحاضرات التي ركزت على الأخلاقيات والحوكمة، والتي تتفاعل مع مستفيدينا والتحديات التي يواجهونها. ما يثير الاهتمام هو أن هناك حقًا دافعًا حقيقيًا لضمان أن الأخلاقيات تكون جزءًا من استراتيجيات الذكاء الاصطناعي في المستقبل. إنه أمر مُشجع للغاية أن يتم مناقشة الأخلاقيات في هذه المرحلة المبكرة – أنها ليست قضية تُغفل كما كانت في التكنولوجيات الماضية التي تطورت بسرعة.
تناولت إحدى المحاضرات مسألة الحوكمة وكيف أن الحكومات لا تزال تحاول مواكبة التطورات. يبدو أن هناك شعورًا عامًا بأنه يجب تنظيم الذكاء الاصطناعي، ولكن المسألة الكبيرة التالية هي ما إذا كان التنظيم الذي يرغب فيه الالناس ممكن أن يكون ممكنًا، وكيف سيكون ذلك؟ هل ستكون قانونية الاتحاد الأوروبي فعالة، أم ستتم تخفيفها؟ ما هي الأنظمة التي تستخدمها وما هي المبادئ التي تدعمها؟ هل هذا هو الأمر الصحيح للقيام به، هل هذه هي الطريقة الصحيحة لاستخدام هذا النوع من القوة، وما ستكون النتائج إذا قمنا بذلك؟
بصفتنا جمعية خيرية تعمل لخدمة الجمعيات الأخرى، فإن الحفاظ على الأمان هو مجال هام يشغل بالنا. لذا، من الجيد أن نعلم أن الرأي العام أيضًا يفكر في الشفافية. لم يقم مقدمو الذكاء الاصطناعي والأدوات بما يكفي حتى الآن لإشارة إلى المخاطر المحتملة لمنظمات القطاع الثالث التي تتعامل على سبيل المثال بشكل روتيني مع البيانات الحساسة حول الأفراد الضعفاء. يمكن أن يؤدي ذلك إلى العديد من المشكلات بالنسبة للجمعيات التي تستخدم الذكاء الاصطناعي للمرة الأولى، بما في ذلك انتهاكات البيانات. لقد رأينا بالفعل سوء استخدام الذكاء الاصطناعي لاستبدال الخدمات التي لا يزال يقودها البشر – على سبيل المثال، قدمت روبوت دردشة استشارات خطيرة فيما يتعلق بالاضطرابات الغذائية. يجب أن يأخذ القادة التقنيين والحكومات الريادة من خلال توضيح النهج المسؤول وإنشاء إطارات حول الحفاظ على الأمان والمخاطر. ستظل هناك دائمًا أطراف ضارة في هذا المجال، ولكن يبدو أن هناك “تحالفًا للراغبين” يرغبون في ضمان سلامة الذكاء الاصطناعي بشكل مستمر، وليس فقط لأولئك الذين لديهم موارد كافية لخلق حفظهم الخاص.
مع استمرار هذه المناقشات وتطور التكنولوجيا بسرعة، من المهم جدًا وجود أماكن يمكن فيها سماع القطاع الثالث جنبًا إلى جنب مع المنظمات الخاصة أو القانونية. في معرض الذكاء الاصطناعي والبيانات الضخمة، تمكنا من عرض عملنا كصوت ممثل وكسب الحماس في حركة