برامج وتطبيقات

مخاوف من تهديدات الأسلحة البيولوجية باستخدام تقنية ChatGPT

منصة الذكاء الاصطناعي ـ متابعات

تتزايد المخاوف من تطوير أسلحة بيولوجية باستخدام تقنية ChatGPT، حيث يحذر العلماء من إمكانية استخدامها في تصميم أسلحة فتاكة قادرة على تدمير العالم. وعلى الرغم من أن الدراسات السابقة أشارت إلى إمكانية ذلك، إلا أن بحثًا حديثًا أجرته OpenAI، المطور لبرنامج الدردشة الآلية، يدّعي أن الإصدار الأخير GPT-4 يقدم تحسينًا طفيفًا في دقة إنشاء التهديدات البيولوجية.

قامت OpenAI بإجراء دراسة على 100 مشارك تم تقسيمهم إلى مجموعتين؛ إحداهما استخدمت الذكاء الاصطناعي لصياغة هجمات بيولوجية والأخرى استخدمت الإنترنت فقط. ووفقًا لتقرير OpenAI، أظهرت الدراسة أن “GPT-4 يمكن أن يعزز قدرة الخبراء على الوصول إلى معلومات حول التهديدات البيولوجية، وذلك من أجل تحسين دقة واكتمال المهام”.

وأوضحت الدراسة بأن هناك “حاجة واضحة وعاجلة للمزيد من العمل في هذا المجال”، خاصةً في ظل العدم اليقين المحيط. ونظرًا للتطور السريع في نظم الذكاء الاصطناعي، ينبغي بناء تقييمات متعمقة للمخاطر البيولوجية والكوارث الأخرى، وتعزيز النقاش حول ما يمثل خطرًا حقيقيًا، وتطوير استراتيجيات فعّالة للتخفيف من تلك المخاطر.

على الرغم من ذلك، فإن حجم الدراسة لم يكن كافيًا ليكون له دلالة إحصائية قوية، وأكدت OpenAI أن النتائج تسلط الضوء على “حاجة إلى المزيد من البحث حول حدود الأداء التي تشير إلى زيادة كبيرة في المخاطر”. وأضافت الشركة أن “الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي، وأن التقييم لا يتناول النجاح في البناء الفعلي للتهديدات”.

ركزت دراسة OpenAI على بيانات من 50 خبيرًا حاصلًا على درجة الدكتوراه في علم الأحياء، و50 طالبًا جامعيًا أكملوا دورة واحدة في نفس المجال. تمت دراسة خمسة جوانب للتهديداتالبيولوجية المحتملة وتم تقييم قدرة GPT-4 على توليد تهديدات بيولوجية وفقًا لهذه الجوانب. ومع ذلك، فإن الدراسة لم تشمل تقييمًا للمخاطر الأخلاقية المرتبطة بتطوير أسلحة بيولوجية باستخدام تقنية الذكاء الاصطناعي.

تجدر الإشارة إلى أن OpenAI قد اتخذت خطوات للتحكم في استخدامات تقنية الذكاء الاصطناعي من خلال فتح نقاش عام حول سياسات الاستخدام وإطلاق نماذج متعددة محدودة الوصول للحد من المخاطر المحتملة. كما تعمل على تعزيز البحث في تقييم المخاطر والتحكم فيها بالتعاون مع الجهات المعنية الأخرى.

على الرغم من الإمكانيات الواعدة لتقنية الذكاء الاصطناعي في مجالات مختلفة، فإنه يتطلب إشراف وتنظيم مناسب للحد من المخاطر المحتملة. يجب أن تعمل المؤسسات والمجتمعات المعنية على وضع إطار قوانين وأخلاقيات صارمة للتأكد من استخدام التكنولوجيا بطرق تعزز الفائدة العامة وتحمي السلامة والأمان.

هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي    

مقالات ذات صلة

زر الذهاب إلى الأعلى