هل الذكاء الاصطناعي الإنتاجي لم يتعلم شيئًا من الويب؟
منصة الذكاء الاصطناعي ـ متابعات:
نشر موقع wired تقريراً ألقى فيه الضوء على تحديات شركات الذكاء الاصطناعي الإنتاجي فيما يتعلق بمراقبة المحتوى، وممارسات العمل المشبوهة، والمعلومات الكاذبة، والتي تظهر أنها تواجه نفس المشاكل التي واجهت منصات التواصل الاجتماعي قبلها.
إذا كان عام 2022 هو عام انتشار الذكاء الاصطناعي الإنتاجي، فإن عام 2023 شهد حالة من الذعر. وبعد مرور أكثر من 12 شهرًا على إطلاق منصة ChatGPT من قبل OpenAI، وتحقيقها رقمًا قياسيًا في أسرع منتج ينمو لدى المستهلكين، يبدو أنها ساهمت أيضًا في تحقيق رقم قياسي آخر وهو التدخل الحكومي الأسرع في تكنولوجيا جديدة. فاللجنة الفيدرالية للانتخابات الأمريكية تحقق في إعلانات الحملات الانتخابية الخادعة، ويدعو الكونغرس إلى تقييم كيفية تطوير شركات الذكاء الاصطناعي لبيانات التدريب وتصنيفها للخوارزميات الخاصة بها، ومن جانبه، أقر الاتحاد الأوروبي قانونه الجديد المتعلق بالذكاء الاصطناعي وأجرى تعديلات في اللحظات الأخيرة للتعامل مع الذكاء الاصطناعي الإنتاجي.
ولكن على الرغم من الجديد والسرعة، فإن مشاكل الذكاء الاصطناعي الإنتاجي مألوفة جدًا. إذ يواجه OpenAI ومنافسيها الذين يتسابقون لإطلاق نماذج الذكاء الاصطناعي الجديدة مشاكلًا واجهت منصات التواصل الاجتماعي، وهي التكنولوجيا التي شكلت عصرًا جديدًا لمدة تقارب عقدين من الزمن. فشركات مثل ميتا لم تنجح في التغلب على المعلومات الكاذبة والمضللة وممارسات العمل غير القانونية والمحتوى الإباحي غير المرغوب فيه، وهذه بعض النتائج غير المقصودة لتلك الشركات. والآن تتجسد تلك المشاك.
وتُطلق ميتا ويوتيوب سياسات جديدة تتطلب تسمية واضحة للإعلانات السياسية المُنشأة بواسطة الذكاء الاصطناعي، وذلك ردًا على المخاوف المتعلقة بتشويه الحملات الانتخابية للمرشحين السياسيين في الولايات المتحدة لعام 2024. ومع ذلك، فإن هذه السياسة، مثل وضع علامات مائية على الصور ومقاطع الفيديو المنشأة بواسطة الذكاء الاصطناعي، لا تغطي مجموعة متنوعة من الطرق الأخرى التي يمكن استخدامها لإنشاء ومشاركة وسائط مزيفة.
وعلى الرغم من ما يبدو أنه تدهور في الوضع الحالي، بدأت المنصات في القلص من الموارد والفِرَق التي تُطلَب لاكتشاف المحتوى الضار، وفقًا لسام غريغوري، مدير البرامج في منظمة “ويتنس” غير الربحية التي تساعد الناس على استخدام التكنولوجيا لتعزيز حقوق الإنسان. وقد أعلنت الشركات التكنولوجية الكبرى عن إنهاء عقود عشرات الآلاف من العاملين خلال العام الماضي. ويقول غريغوري: “لقد شهدنا العديد من التقليصات في فِرَق الثقة والسلامة وبرامج التحقق من الحقائق في الوقت نفسه، وهذه تضيف عنصرًا غير مستقر ومشوش إلى المزيج. إنك تُقلِّص القدرة، سواء داخل الشركات أو في المجتمع المدني، على توجيه الاهتمام إلى كيفية استخدام ذلك بشكل مضلل أو خبيث”.
لذا فالعواقب غير المقصودة للمنصات الاجتماعية أصبحت مرتبطة بشعار كان شائعًا في وقت ما لدى الرئيس التنفيذي لفيسبوك، مارك زوكربيرغ: “التقدم بسرعة وتحطيم الأشياء”. لاحقًا، اعتزلت فيسبوك هذا الشعار، ولكن كما تتنافس شركات الذكاء الاصطناعي على الهيمنة باستخدام خوارزميات توليدية، يقول غريغوري إنه يشهد نهجًا غير مسؤول مماثلاً الآن.
يقول: “هناك شعور بالتحرر بعد كل إصدار دون اعتبار كبير”، مشيرًا إلى أنه، مثل العديد من المنصات الكبيرة، يوجد تعتيم حول كيفية بناء هذه المنتجات وتدريبها واختبارها ونشرها.
وعلى الرغم من أن الكونغرس الأمريكي والجهات التنظيمية في جميع أنحاء العالم يبدو أنهم عازمون على التصرف بشكل أكثر حزم بالنسبة للذكاء الاصطناعي التوليدي مقارنة بوسائل التواصل الاجتماعي، يقول فاريد إن التنظيم يتأخر بشكل كبير مقارنة بتطور الذكاء الاصطناعي. وهذا يعني أنه لا يوجد حافز لشركات الذكاء الاصطناعي التوليدية الجديدة للتباطؤ خوفًا من العقوبات.
يقول: “المنظمات التنظيمية ليست لديها فكرة عما يجب عمله، وتتحرك الشركات بسرعة جدًا حتى لا يعرف أحد كيفية مواكبتها”. ويشير إلى درس، ليس عن التكنولوجيا، ولكن عن المجتمع. “تدرك شركات التكنولوجيا أنها يمكنها كسب الكثير من المال إذا قامت بتخصيص الأرباح وتجاوز التكاليف على المجتمع. ليست التكنولوجيا هي المخيفة، بل المخيف هو الرأسمالية”.
هذا المحتوى تم بمعرفة وحدة الذكاء الاصطناعي