البيت الأبيض يؤمن التزامات السلامة من ثماني شركات كبرى للذكاء الاصطناعي

منصة الذكاء الاصطناعي ـ متابعات
أعلنت إدارة بايدن هاريس أنها حصلت على تعهدات طوعية جديدة من ثماني شركات بارزة في مجال الذكاء الاصطناعي، مؤكدة بذلك التزامها القوي بضمان السلامة والأمان في هذا المجال المتطور.
حضر ممثلو شركات أدوبي، كوير، آي بي إم، نفيديا، بالانتير، ساليسفورس، مقياس منظمة العفو الدولية، والاستقرار البيت الأبيض للإعلان. وعبر هذه الجولة الثانية من التزامات السلامة، تعهدت هذه الشركات الثمانية باللعب بدور محوري في تعزيز تطوير الذكاء الاصطناعي الآمن والأمن والجدير بالثقة.
تعمل إدارة بايدن-هاريس بنشاط على إصدار أمر تنفيذي ومتابعة تشريع من الحزبين لضمان قيادة الولايات المتحدة في تطوير الذكاء الاصطناعي المسؤول الذي يفتح إمكاناتها بينما تتعامل مع المخاطر بحذر.
تتمحور التزامات هذه الشركات حول ثلاثة مبادئ أساسية: السلامة والأمن والثقة. وقد تعهدت بما يلي:
- ضمان سلامة المنتجات قبل طرحها في السوق:
تلتزم الشركات بإجراء اختبارات أمنية صارمة على أنظمة الذكاء الاصطناعي الخاصة بها قبل إطلاقها للجمهور، وذلك من خلال تقييمات من قبل خبراء مستقلين. وتهدف هذه الخطوة إلى تقليل المخاطر الكبرى المرتبطة بالذكاء الاصطناعي، مثل الأمان البيولوجي والأمن السيبراني والتأثيرات الاجتماعية الواسعة النطاق. - تبادل المعلومات والتعاون الشامل:
ستعمل هذه الشركات على نشر معلومات متعلقة بإدارة مخاطر الذكاء الاصطناعي مع الحكومات والمجتمع المدني والأوساط الأكاديمية وأصحاب المصلحة في الصناعة. وسيشمل هذا التعاون تبادل أفضل الممارسات في مجال السلامة والمعلومات المتعلقة بتجاوز الضمانات والتعاون التقني. - بناء أنظمة معتمدة على المبادئ السلامة:
تعهدت الشركات بتطوير وتبني إطار عمل للسلامة والمسؤولية في مجال الذكاء الاصطناعي. ستعمل على تحديد المعايير الأخلاقية والقواعد والمبادئ التوجيهية التي يجب أن يتبعها النظام الذكي، وتعزيز الشفافية والمساءلة في عمليات تطوير واستخدام الذكاء الاصطناعي.
تأتي هذه التزامات في إطار الجهود المستمرة لتعزيز السلامة والأمان في تطوير الذكاء الاصطناعي. يهدف البيت الأبيض إلى تشجيع المزيد من الشركات على الانضمام إلى هذه الجهود وتبني معايير عالية للسلامة والأمان في هذا المجال الناشئ.
تعزز هذه التزامات السلامة والأمان في مجال الذكاء الاصطناعي وتساهم في تقديم منتجات وتطبيقات ذكية أكثر أمانًا وموثوقية، مما يعزز الثقة في استخدام التكنولوجيا الذكية ويحمي المستخدمين والمجتمعات من المخاطر المحتملة.
لتعزيز الشفافية والمساءلة ، ستقوم الشركات بتطوير آليات تقنية قوية – مثل أنظمة العلامات المائية-للإشارة إلى متى يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي. تهدف هذه الخطوة إلى تعزيز الإبداع والإنتاجية مع تقليل مخاطر الاحتيال والخداع.
كما سيقدمون تقارير علنية عن قدرات أنظمة الذكاء الاصطناعي الخاصة بهم وقيودها ومجالات الاستخدام المناسب وغير المناسب ، بما في ذلك المخاطر الأمنية والمجتمعية ، بما في ذلك الإنصاف والتحيز. علاوة على ذلك ، تلتزم هذه الشركات بإعطاء الأولوية للبحث حول المخاطر المجتمعية التي تشكلها أنظمة الذكاء الاصطناعي ، بما في ذلك معالجة التحيز الضار والتمييز.
كما ستقوم هذه الشركات الرائدة في مجال الذكاء الاصطناعي بتطوير ونشر أنظمة الذكاء الاصطناعي المتقدمة لمواجهة التحديات المجتمعية الكبيرة ، من الوقاية من السرطان إلى التخفيف من تغير المناخ ، والمساهمة في الازدهار والمساواة والأمن للجميع.
يمتد التزام إدارة بايدن-هاريس بهذه الالتزامات إلى ما هو أبعد من الولايات المتحدة ، مع مشاورات تشمل العديد من الشركاء والحلفاء الدوليين. تكمل هذه الالتزامات المبادرات العالمية ، بما في ذلك قمة المملكة المتحدة حول سلامة الذكاء الاصطناعي ، وقيادة اليابان لعملية مجموعة الـ 7 في هيروشيما ، وقيادة الهند كرئيس للشراكة العالمية بشأن الذكاء الاصطناعي.
يمثل هذا الإعلان علامة فارقة في الرحلة نحو تطوير الذكاء الاصطناعي المسؤول ، حيث يجتمع قادة الصناعة والحكومة لضمان أن تكنولوجيا الذكاء الاصطناعي تعود بالفائدة على المجتمع مع التخفيف من المخاطر الكامنة فيه.
هذا المحتوي بمعرفة وحدة الذكاء الاصطناعي