
ملايين الأشخاص حول العالم يعتمدون يومياً على روبوتات الدردشة بالذكاء الاصطناعي لكن دراسة جديدة كشفت أنها كثيرا ما تقدم معلومات غير دقيقة بسبب طريقة تدريبها.
ووفقا لبحث أجرته جامعة برنستون الأمريكية، فإن هذه الأنظمة مبرمجة للتعامل مع المستخدم على أنه دائما على صواب وهو ما يجعلها تميل إلى تزويده بما يرغب في سماعه بدلا من الحقائق الكاملة.
الدراسة أوضحت أن النماذج اللغوية الضخمة (LLM) تتلقى تدريبات قائمة على تفاعلات المستخدمين وتقييماتهم الإيجابية ما يدفعها لإنتاج إجابات تحظى بقبول أكبر حتى لو كانت مضللة، وفق ما نشره “The Economic Times“.
وأشار الباحثون إلى أن هذا السلوك يشبه ما قد يفعله طبيب يصف دواءً سريع المفعول لتخفيف الألم متجاهلا معالجة السبب الجذري للمرض.
وبحسب الدراسة، فإن هذه المشكلة مرتبطة بطبيعة البيانات الضخمة التي تُغذى بها أنظمة الذكاء الاصطناعي مما يجعل من المستحيل ضمان دقة وصحة كل إجابة.
ويرى الخبراء أن هذه العيوب قد تستمر رغم التطوير المستمر لكن من المتوقع أن تشهد تقنيات الذكاء الاصطناعي تحسنا تدريجيا في هذا المجال.
Web Desk