الذكاء الاصطناعي المركزي: مخاطر الهيمنة وضرورة اللامركزية
بوابة الذكاء الاصطناعي - وحدة المتابعة

أثار الذكاء الذي أظهرته روبوتات الدردشة القائمة على تقنية الذكاء الاصطناعي التوليدي، مثل ChatGPT من شركة OpenAI، إعجاب الأفراد والشركات على حد سواء، ليصبح الذكاء الاصطناعي فجأةً أكثر مجالات ابتكار التكنولوجيا إثارةً. وقد تم الاعتراف بالذكاء الاصطناعي كمحول للأوضاع، يتمتع بإمكانيات هائلة لتحويل العديد من جوانب حياتنا، بدءاً من الطب الشخصي وحتى المركبات الذاتية القيادة، والاستثمارات الآلية والأصول الرقمية، حيث تبدو إمكانيات الذكاء الاصطناعي لا حدود لها.
ولكن، وعلى الرغم من التحول الذي سيحدثه الذكاء الاصطناعي، إلا أنه يطرح العديد من المخاطر. فبينما تبدو المخاوف بشأن نظام ذكاء اصطناعي خبيث، على غرار “سكاينيت” في أفلام الخيال العلمي، غير واردة، إلا أن مخاطر تركيز الذكاء الاصطناعي ليست كذلك. فمع تقدم شركات مثل مايكروسوفت وجوجل وإنفيديا في سعيها وراء الذكاء الاصطناعي، تتزايد المخاوف بشأن تركيز السلطة في أيدي عدد قليل من اللاعبين المركزيين.
لماذا ينبغي أن نقلق بشأن لامركزية الذكاء الاصطناعي؟
احتكار السلطة:
أكثر القضايا إلحاحاً الناجمة عن تركيز الذكاء الاصطناعي هي احتمال سيطرة عدد قليل من عمالقة التكنولوجيا على هذه الصناعة بشكل احتكاري. فقد قامت شركات التكنولوجيا الكبرى بالفعل بتجميع حصة سوقية كبيرة جداً في مجال الذكاء الاصطناعي، مما منحها امتلاك كميات هائلة من البيانات. كما أنها تتحكم في البنية التحتية التي تعمل عليها أنظمة الذكاء الاصطناعي، مما يمكنها من إعاقة منافسيها، وتقويض الابتكار، وإدامة عدم المساواة الاقتصادية.
وبتحقيق الاحتكار على تطوير الذكاء الاصطناعي، تصبح هذه الشركات أكثر عرضة للتأثير بشكل غير عادل على الأطر التنظيمية، والتي يمكنها التلاعب بها لصالحها. وسيعني ذلك أن الشركات الناشئة الأصغر، التي تفتقر إلى الموارد الهائلة لعمالقة التكنولوجيا الكبرى، ستجد صعوبة في مواكبة وتيرة الابتكار. وستنتهي تلك التي تبقى وتبدو أنها قد تزدهر بالاستحواذ عليها في نهاية المطاف، مما يزيد من تركيز السلطة في أيدي القلة. وستكون النتيجة نقصاً في التنوع من حيث تطوير الذكاء الاصطناعي، وقلة الخيارات للمستهلكين، وشروط أقل ملاءمة، مما يحد من حالات الاستخدام والفرص الاقتصادية التي يعد بها الذكاء الاصطناعي.
التحيز والتمييز:
بخلاف السيطرة الاحتكارية، هناك مخاوف حقيقية بشأن تحيز أنظمة الذكاء الاصطناعي، وستكتسب هذه المخاوف أهمية أكبر مع ازدياد اعتماد المجتمع على الذكاء الاصطناعي. ينبع هذا الخطر من حقيقة أن المنظمات أصبحت أكثر اعتماداً على الأنظمة الآلية لاتخاذ القرارات في العديد من المجالات. فليس من غير المألوف أن تستخدم شركة خوارزميات الذكاء الاصطناعي لتصفية المتقدمين للوظائف، على سبيل المثال، ويكمن الخطر في أن النظام المتحيز يمكن أن يستبعد بشكل غير عادل مجموعة فرعية من المرشحين بناءً على عرقهم أو سنهم أو مكان إقامتهم. كما يستخدم الذكاء الاصطناعي من قبل شركات التأمين لتحديد أسعار السياسات، ومن قبل شركات الخدمات المالية لتحديد ما إذا كان شخص ما مؤهلاً للحصول على قرض ومقدار الفائدة التي سيتعين عليه دفعها، ومن قبل أجهزة إنفاذ القانون لتحديد المناطق التي من المرجح أن تشهد ارتفاعاً في الجريمة. في جميع حالات الاستخدام هذه، فإن الآثار المحتملة لأنظمة الذكاء الاصطناعي المتحيزة مثيرة للقلق للغاية.
سواء كان الأمر يتعلق باستهداف أجهزة إنفاذ القانون للأقليات، أو ممارسات الإقراض التمييزية، أو غير ذلك، فإن الذكاء الاصطناعي المركزي يمكن أن يؤدي إلى تفاقم عدم المساواة الاجتماعية وتمكين التمييز المنهجي.
الخصوصية والمراقبة:
هناك خطر آخر يطرحه الذكاء الاصطناعي المركزي وهو نقص حماية الخصوصية. عندما تسيطر عدد قليل من الشركات الكبرى على الغالبية العظمى من البيانات التي يولدها الذكاء الاصطناعي، فإنها تكتسب القدرة على إجراء مراقبة غير مسبوقة لمستخدميها. يمكن استخدام البيانات التي تجمعها منصات الذكاء الاصطناعي الأكثر هيمنة لرصد سلوك الفرد وتحليله والتنبؤ به بدقة لا تصدق، مما يقوض الخصوصية ويزيد من إمكانية إساءة استخدام المعلومات.
هذا الأمر مثير للقلق بشكل خاص في البلدان التي لديها حكومات استبدادية، حيث يمكن استخدام البيانات كسلاح لإنشاء أدوات أكثر تطوراً لمراقبة المواطنين. ولكن حتى في المجتمعات الديمقراطية، هناك تهديد يطرحه زيادة المراقبة، كما يتضح من كشوفات إدوارد سنودن حول برنامج بريزم التابع لوكالة الأمن القومي الأمريكية.
يمكن للشركات أيضاً إساءة استخدام بيانات المستهلكين لزيادة أرباحها. بالإضافة إلى ذلك، عندما تتراكم الكيانات المركزية كميات هائلة من البيانات الحساسة، فإن هذا يجعلها أهدافاً أكثر جاذبية للقراصنة، مما يزيد من خطر تسرب البيانات.
مخاطر الأمن:
يمكن أن تنشأ أيضاً مسائل تتعلق بالأمن القومي بسبب تركيز الذكاء الاصطناعي. فعلى سبيل المثال، هناك مخاوف مبررة من أن أنظمة الذكاء الاصطناعي يمكن أن تُستخدم كسلاح من قبل الدول، وتُستخدم لإجراء حروب إلكترونية، والمشاركة في التجسس، وتطوير أنظمة أسلحة جديدة. يمكن أن يصبح الذكاء الاصطناعي أداة رئيسية في الحروب المستقبلية، مما يزيد من المخاطر في الصراعات الجيوسياسية.
يمكن أيضاً استهداف أنظمة الذكاء الاصطناعي نفسها. مع زيادة اعتماد الدول على الذكاء الاصطناعي، ستصبح هذه الأنظمة أهدافاً مغرية، لأنها نقاط فشل واحدة واضحة. فإزالة نظام ذكاء اصطناعي يمكن أن يعطل تدفق حركة المرور في المدن بالكامل، ويسقط شبكات الكهرباء، وأكثر من ذلك.
الأخلاقيات:
القلق الرئيسي الآخر بشأن الذكاء الاصطناعي المركزي هو الأخلاقيات. ذلك لأن حفنة من الشركات التي تتحكم في أنظمة الذكاء الاصطناعي ستكتسب نفوذاً كبيراً على القيم والمعايير الثقافية للمجتمع، وقد تعطي الأولوية للربح في كثير من الأحيان، مما يخلق المزيد من المخاوف الأخلاقية.
فعلى سبيل المثال، تُستخدم خوارزميات الذكاء الاصطناعي بالفعل على نطاق واسع من قبل منصات التواصل الاجتماعي لتنظيم المحتوى، في محاولة للكشف عن المنشورات المسيئة وفلترتها. أما القلق فهو أن الخوارزميات، إما عن طريق الخطأ أو التصميم، قد تنتهي إلى قمع حرية التعبير.
هناك جدل بالفعل حول فعالية أنظمة التنظيم التي تعمل بالذكاء الاصطناعي، حيث يتم حظر أو إزالة العديد من المنشورات التي تبدو غير ضارة من قبل الخوارزميات الآلية. وهذا يؤدي إلى تكهنات بأن هذه الأنظمة ليست معطلة بل يتم التلاعب بها خلف الكواليس بناءً على الرواية السياسية التي تحاول المنصة الترويج لها.
البديل؟ الذكاء الاصطناعي اللامركزي:
البديل المنطقي الوحيد للذكاء الاصطناعي المركزي هو تطوير أنظمة ذكاء اصطناعي لامركزية تضمن بقاء السيطرة على التكنولوجيا في أيدي الأغلبية، وليس القلة. وبذلك، يمكننا ضمان عدم حصول أي شركة أو كيان واحد على نفوذ كبير على اتجاه تطوير الذكاء الاصطناعي.
عندما يتم تقاسم تطوير الذكاء الاصطناعي وحكمه من قبل آلاف أو ملايين الكيانات، سيكون تقدمه أكثر إنصافاً، مع توافق أكبر مع احتياجات الفرد. وستكون النتيجة تطبيقات ذكاء اصطناعي أكثر تنوعاً، مع مجموعة لا حصر لها تقريباً من النماذج التي تستخدمها أنظمة مختلفة، بدلاً من عدد قليل من النماذج التي تهيمن على الصناعة.
ستعني أنظمة الذكاء الاصطناعي اللامركزية أيضاً وجود ضوابط وتوازنات ضد خطر المراقبة الجماعية والتلاعب بالبيانات. بينما يمكن تسخير الذكاء الاصطناعي المركزي واستخدامه بطريقة تتعارض مع مصالح الكثيرين، فإن الذكاء الاصطناعي اللامركزي يحمي من هذا النوع من القمع.
الميزة الرئيسية للذكاء الاصطناعي اللامركزي هي أن الجميع يتحكم في تطور التكنولوجيا، مما يمنع أي كيان واحد من الحصول على نفوذ كبير على تطويره.
كيفية لامركزية الذكاء الاصطناعي:
يتضمن الذكاء الاصطناعي اللامركزي إعادة التفكير في الطبقات التي تشكل حزمة تقنية الذكاء الاصطناعي، بما في ذلك عناصر مثل البنية التحتية (موارد الحوسبة والشبكات)، والبيانات، والنماذج، وعمليات التدريب، والاستدلال، والضبط الدقيق.
لا يمكننا فقط وضع آمالنا في النماذج مفتوحة المصدر إذا ظلت البنية التحتية الأساسية مركزية بالكامل من قبل عمالقة الحوسبة السحابية مثل أمازون ومايكروسوفت وجوجل، على سبيل المثال. نحتاج إلى ضمان لامركزية كل جانب من جوانب الذكاء الاصطناعي.
أفضل طريقة لامركزية حزمة الذكاء الاصطناعي هي تقسيمها إلى مكونات معيارية وإنشاء أسواق حولها بناءً على العرض والطلب. أحد الأمثلة على كيفية عمل ذلك هو Spheron، الذي أنشأ شبكة بنية تحتية مادية لامركزية (DePIN) يمكن لأي شخص المشاركة فيها.
مع DePIN من Spheron، الجميع حر في مشاركة موارد الحوسبة غير المستخدمة، وتأجيرها أساساً لأولئك الذين يحتاجون إلى بنية تحتية لاستضافة تطبيقات الذكاء الاصطناعي الخاصة بهم. لذلك، يمكن لمصمم رسوميات يستخدم جهاز كمبيوتر محمول قوي مزود بوحدة معالجة الرسومات التبرع بقدرة المعالجة لـ DePIN عندما لا يستخدمها في عمله الخاص، ويكافأ بحوافز رمزية.
ما يعنيه هذا هو أن طبقة بنية تحتية الذكاء الاصطناعي تصبح موزعة على نطاق واسع وغير مركزية، بدون مزود واحد يتحكم فيها. يتم تمكين ذلك من خلال تقنية blockchain والعقود الذكية، التي توفر الشفافية والثبات والأتمتة.
يمكن أن تعمل DePIN أيضاً للنماذج مفتوحة المصدر والبيانات الأساسية. فعلى سبيل المثال، من الممكن مشاركة مجموعات بيانات التدريب على شبكة لامركزية مثل Qubic، والتي ستضمن مكافأة مزود تلك البيانات في كل مرة يتم الوصول إلى معلوماته بواسطة نظام ذكاء اصطناعي.
ولضمان لامركزية الوصول والأذونات، يتم توزيع كل جزء من حزمة التكنولوجيا بهذه الطريقة. ومع ذلك، تعاني صناعة الذكاء الاصطناعي حالياً من صعوبة في توفير هذا المستوى من اللامركزية. على الرغم من أن النماذج مفتوحة المصدر أصبحت شائعة للغاية بين مطوري الذكاء الاصطناعي، إلا أن معظم الناس يواصلون الاعتماد على شبكات سحابية خاصة، مما يعني أن عمليات التدريب والاستدلال مركزية للغاية.
ولكن هناك حوافز قوية للفوز باللامركزية. إحدى المزايا الرئيسية لشبكات DePIN، على سبيل المثال، هي أنها تساعد في تقليل النفقات العامة. لأن الشبكات مثل Spheron لا تعتمد على الوسطاء، لا يحتاج المشاركون إلى إجراء أي مدفوعات أو مشاركة الإيرادات مع أطراف ثالثة. علاوة على ذلك، يمكنهم تحمل التنافسية من حيث الأسعار أكثر من الشركات التي تخضع لضغوط لزيادة الربحية.
يجب أن تفوز اللامركزية:
يحتفظ مستقبل الذكاء الاصطناعي بالكثير من الإمكانات، ولكنه محفوف بالمخاطر أيضاً. بينما تحسنت قدرات أنظمة الذكاء الاصطناعي بشكل كبير في السنوات القليلة الماضية، إلا أن معظم التطورات قد قامت بها شركات قوية، مما أدى إلى زيادة نفوذها على الصناعة. هناك ثمن يدفعه مقابل ذلك، ليس فقط من الناحية النقدية.
البديل المعقول الوحيد هو تعزيز تبني الذكاء الاصطناعي اللامركزي، والذي يمكن أن يعزز إمكانية الوصول ويضمن مرونة أكبر للذكاء الاصطناعي. بإتاحة الفرصة للجميع للمشاركة في تطوير الذكاء الاصطناعي على قدم المساواة، سنرى تطبيقات أكثر تنوعاً وإثارةً وفائدةً يمكن أن تفيد الجميع على قدم المساواة، بالإضافة إلى وضع مستخدميها في المقام الأول.
سيشمل بناء مستقبل ذكاء اصطناعي لامركزي قدراً كبيراً من التنسيق والتعاون عبر كل طبقة من طبقات حزمة الذكاء الاصطناعي. لحسن الحظ، هناك حوافز قوية للمشاركين للقيام بذلك. ومرة أخرى، الحوافز ليست نقدية فقط.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي