ثقافة و فنعلم و تكنولوجيا

دراسة تكشف هشاشة الذكاء الاصطناعي في القرارات الأخلاقية

Shutterstock

كشفت دراسة حديثة نُشرت في مجلة “Nature” أن روبوتات الدردشة تقدم نصائح أخلاقية أو طبية دون فهم حقيقي لما تقول. الفريق أكد أن الاختبارات الحالية تقيس فقط ما يبدو صوابا أخلاقيا لكنها لا تثبت قدرة نماذج الذكاء الاصطناعي على فهم سبب صواب أو خطأ القرار.

الباحثون أشاروا إلى ثلاث تحديات رئيسية:

النسخة المقلدة: تعتمد النماذج على احتمالات إحصائية لإنتاج الإجابات ما يجعلها تعيد صياغة محتوى التدريب دون تفكير أخلاقي.
تعددية الأبعاد الأخلاقية: تتغير الأحكام بحسب تفاصيل صغيرة مثل العمر أو السياق لكن الاختبارات لا تلتقط هذه الفروق.
التعددية الثقافية: القرارات الأخلاقية تختلف بين الثقافات والنماذج العالمية تواجه صعوبة في التعامل مع هذه الاختلافات.

وضع الفريق اختبارات جديدة تكشف التقليد السطحي عبر سيناريوهات غير مألوفة يصعب وجودها في بيانات التدريب مثل حالات معقدة تتعلق بالطب الحيوي أو القانون العسكري.

ويؤكد الباحثون أن الوقت حان لتطوير معيار علمي يقيس “الكفاءة الأخلاقية” للنماذج بنفس جدية قياس مهارات الرياضيات أو البرمجة. النماذج الحالية هشة وأحكامها تتغير بتغييرات بسيطة في صياغة السؤال ما يعكس محدودية الفهم العميق.

الخلاصة، روبوتات الدردشة اليوم تعتمد على تنبؤات إحصائية وليست قادرة على التفكير الأخلاقي الحقيقي ويحتاج المستقبل إلى قياس الفهم الأخلاقي الفعلي وليس مظهره فقط.

Web Desk

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى