الذكاء الاصطناعيعلم و تكنولوجيا

خبير بريطاني يحذر من مخاطر التعلق العاطفي بروبوتات الذكاء الاصطناعي

تعبيرية (Linkedin)

حذّر ألكسندر لافر المحاضر في الإعلام والاتصالات بجامعة وينشستر البريطانية، من تصاعد المخاطر المرتبطة بالاعتماد العاطفي على روبوتات الدردشة المدعومة بالذكاء الاصطناعي مشددا على ضرورة وضع معايير حماية جديدة لحماية المستخدمين خصوصا الفئات الأكثر هشاشة مثل الأطفال والمراهقين.

وقال لافر في تصريحات نقلتها صحيفة “ذا إندبندنت” البريطانية إن هذه الأنظمة صُممت لرصد مشاعر الأشخاص والتفاعل معها الأمر الذي يجعل بعض المستخدمين يتعاملون مع روبوتات الدردشة كما لو كانت أشخاصا حقيقيين. وأضاف أن هذا النمط من الاستخدام قد يؤدي إلى تعلق مفرط أو اعتماد نفسي خطير مما يفتح المجال أمام التلاعب أو العزلة الاجتماعية.

وأشار لافر إلى أمثلة واقعية على المخاطر منها حادثة جاسوانت سينغ تشايل الذي حاول تنفيذ هجوم على قلعة وندسور عام 2021 بعد محادثات مع روبوت يُدعى “ساراي” حول التخطيط لاعتداء مسلح. كما لفت إلى دعوى قضائية مرفوعة في الولايات المتحدة ضد شركة “Character AI” ومؤسسيها إلى جانب شركة جوجل بعدما اتهمت والدة مراهق يبلغ 14 عاما المنصة بأنها ساهمت في انتحار ابنها نتيجة تعلقه بأحد “رفقاء” الذكاء الاصطناعي عبر جلسات لعب أدوار مطولة.

وأكد المحاضر البريطاني أن “الذكاء الاصطناعي لا يشعر ولا يمكنه أن يشعر” محذرا من أن الأطفال، والأشخاص الذين يعانون من مشكلات في الصحة النفسية وحتى من يمرون بظروف يومية صعبة معرضون بشكل أكبر لتأثيرات سلبية عند استخدام هذه الروبوتات دون ضوابط واضحة.

واقترح لافر مجموعة من التدابير لحماية المستخدمين، تضمنت:
تذكير المستخدمين باستمرار عبر رسائل إخلاء مسؤولية بأن روبوت الدردشة ليس شخصا حقيقيا.
إصدار إشعارات في حال قضى المستخدم وقتا طويلا في المحادثة.
وضع تصنيف عمري خاص باستخدام روبوتات الذكاء الاصطناعي المخصصة للتفاعل الاجتماعي.
تجنب الردود ذات الطابع العاطفي أو الرومانسي العميق.
ضمان أن تكون الأولوية لخدمة المستخدم لا لمجرد إطالة وقت التفاعل.

كما دعا لافر إلى تعزيز الوعي المجتمعي والتعليم حول طبيعة الذكاء الاصطناعي وحدوده مشددا على أن المسؤولية لا تقع فقط على عاتق الأفراد بل تمتد أيضا إلى المطورين والشركات المشغلة لهذه التقنيات التي يجب أن تلتزم بممارسات مسؤولة لضمان حماية مستخدميها.

Web Desk

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى