تقارير ومتابعاتبرامج وتطبيقات

تحذير بريطاني من استخدام الروبوتات الذكية غير المنظمة لإعداد خطط الرعاية الاجتماعية

بوابة الذكاء الاصطناعي - وحدة المتابعة:

تحتاج الجهود الشاقة لمقدمي الرعاية في بريطانيا إلى كل المساعدة التي يمكنهم الحصول عليها. ولكن يجب ألا يتضمن ذلك استخدام الروبوتات الذكية غير المنظمة، وفقًا للباحثين الذين يقولون إن الثورة الذكية الاصطناعية في مجال الرعاية الاجتماعية تحتاج إلى أخلاقيات صارمة.

أظهرت دراسة تجريبية قام بها أكاديميون في جامعة أكسفورد أن بعض مقدمي الرعاية قد استخدموا الروبوتات الذكية التكوينية مثل ChatGPT وBard لإعداد خطط الرعاية للأشخاص الذين يتلقون الرعاية.

وفقًا للدكتورة كارولين جرين، الباحثة المبتدئة في معهد الأخلاقيات في الذكاء الاصطناعي بجامعة أكسفورد، التي أجرت مسحًا لمنظمات الرعاية لهذه الدراسة، فإن ذلك يشكل خطرًا محتملًا على سرية المرضى. وقالت: “إذا أدخلت أي نوع من البيانات الشخصية في (روبوت الدردشة الذكي التكويني)، فإن تلك البيانات تُستخدم لتدريب نموذج اللغة. يمكن أن تكون تلك البيانات الشخصية قد تم إنشاؤها وكشفها لشخص آخر”.

وأضافت أن المقدمين للرعاية قد يتصرفون استنادًا إلى معلومات غير صحيحة أو متحيزة وقد يتسببون عن غير قصد في الأذى، ويمكن أن تكون خطة الرعاية المولدة بواسطة الذكاء الاصطناعي غير متطورة.

ولكن هناك أيضًا فوائد محتملة للذكاء الاصطناعي، حسبما أضافت جرين. وقالت: “يمكن أن يساعد في تخفيف أعباء العمل الإدارية ويتيح للأشخاص إعادة النظر في خطط الرعاية بشكل أكثر تواترًا. في الوقت الحالي، لا أشجع أحدًا على القيام بذلك، ولكن هناك منظمات تعمل على إنشاء تطبيقات ومواقع ويب للقيام بذلك بالضبط”.

تستخدم التكنولوجي تعتبر استخدام الروبوتات الذكية غير المنظمة في إعداد خطط الرعاية الاجتماعية في المملكة المتحدة محل تحذير. هذا ما يشير إليه باحثون يرون أن الثورة الذكية الاصطناعية في مجال الرعاية الاجتماعية تحتاج إلى أسس أخلاقية صارمة.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي

مقالات ذات صلة

زر الذهاب إلى الأعلى