الذكاء الاصطناعيعلم و تكنولوجيا

الذكاء الاصطناعي يفشل في التحقق من الحقائق وينشر معلومات مضللة

تعبيرية (AI)

مع تصاعد وتيرة المعلومات المضللة خلال النزاع الأخير بين الهند وباكستان، لجأ كثير من مستخدمي وسائل التواصل الاجتماعي إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي للتحقق من صحة الأخبار.
لكن بدلاً من تصحيح الروايات الزائفة، أسهمت هذه الأدوات في نشر المزيد من التضليل ما يسلّط الضوء على محدودية موثوقيتها كمصادر للتحقق من الحقائق.

وتأتي هذه الظاهرة في وقت خفّضت فيه منصات التكنولوجيا عدد المدققين البشريين مما دفع المستخدمين للاعتماد بشكل متزايد على أدوات مثل “Grok” من شركة xAI التابعة لإيلون ماسك و”ChatGPT” من OpenAI، و”Gemini” من Google.

وأصبحت عبارة “?Hey @Grok, is this true” (مرحباً @Grok، هل هذا صحيح؟) منتشرة بشكل واسع على منصة “X” حيث تم دمج المساعد الذكي ما يعكس تحوّل الجمهور إلى هذه الأدوات طلباً للتحقق السريع. غير أن الردود التي تقدمها كثيراً ما كانت تحمل معلومات خاطئة أو مضللة.

فقد أخطأ “Grok” مثلاً في تحديد مقاطع فيديو من أماكن وأزمنة مختلفة، منها مقطع من مطار في السودان عرضه على أنه ضربة باكستانية وآخر من نيبال فسره على أنه رد عسكري. كما روّج لنظرية مؤامرة يمينية متطرفة تُعرف بـ”الإبادة الجماعية للبيض” دون أي سياق مناسب، وفق ما نقلته وكالة “فرانس برس“.

وقالت الباحثة في منظمة NewsGuard ماكنزي ساديغي: إن الاعتماد المتزايد على أدوات الذكاء الاصطناعي يأتي في وقت تقلّصت فيه الاستثمارات في التحقق البشري من الحقائق. وأضافت: “أبحاثنا أظهرت أن روبوتات الدردشة ليست مصادر موثوقة خصوصاً في تغطية الأخبار العاجلة.”

وفي دراسة شملت ثمانية أدوات ذكاء اصطناعي، وجد “مركز تاو للصحافة الرقمية” بجامعة كولومبيا أن هذه الأدوات غالباً ما فشلت في الامتناع عن الإجابة عندما لا تملك معلومات دقيقة وبدلا من ذلك قدمت تخمينات خاطئة.

وفي حالة أخرى، أكد روبوت “Gemini” صحة صورة مولّدة بالذكاء الاصطناعي بل وألف تفاصيل وهمية عن هوية المرأة الظاهرة فيها ومكان التقاط الصورة. كما صنّف “Grok” مقطع فيديو مزيفا لأفعى ضخمة في الأمازون على أنه “أصلي” مستشهدا بمصادر علمية غير موجودة.

وتُظهر هذه الحالات تحولا كبيرا في سلوك المستخدمين الذين باتوا يفضلون أدوات الذكاء الاصطناعي على محركات البحث التقليدية لجمع المعلومات والتحقق منها.
ويأتي ذلك تزامناً مع إعلان “ميتا” عن إنهاء برنامج التحقق من الحقائق عبر طرف ثالث في الولايات المتحدة والاعتماد بدلا من ذلك على “الملاحظات المجتمعية” التي تُضاف من قبل المستخدمين.

ويحذر خبراء من أن نظام “الملاحظات المجتمعية” يفتقر للدقة ولا يشكل بديلا حقيقيا لعملية التحقق المهني خصوصا في بيئة سياسية شديدة الاستقطاب.

وتقول آينجي هولان، مديرة شبكة التحقق من الحقائق الدولية: “رأينا كيف يمكن للتعليمات المعدّلة من قبل المبرمجين أن تدفع روبوتات الذكاء الاصطناعي إلى اختلاق إجابات أو تبنّي روايات متحيزة.” وأضافت: “الطريقة التي تعامل بها Grok مع مواضيع حساسة تثير القلق خاصة بعد خضوعه لتعديلات تهدف لإنتاج إجابات معدّة مسبقا.”

وقد ألقت شركة xAI باللوم على “تعديل غير مصرح به” تسبب في ظهور تعبيرات متطرفة في ردود Grok، في حين أشار الروبوت نفسه إلى أن إيلون ماسك “قد يكون” هو المسؤول عن هذا التعديل ما يفتح تساؤلات جديدة حول مستوى الرقابة والحياد في أدوات الذكاء الاصطناعي.

Web Desk

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

برجاء تعطيل حاجب الإعلانات للاستمرار في استخدام موقعنا