علم و تكنولوجيا

ChatGPT يثير القلق بعد قدرته على إنشاء بطاقات هوية مزورة

تعبيرية (sangfor)

أثارت قدرات ChatGPT المتطورة من OpenAI القلق بعد اكتشاف قدرتها على إنشاء بطاقات هوية مزورة مثل بطاقات Aadhaar وPAN مما فتح بابًا جديدًا للغش والاحتيال باستخدام الذكاء الاصطناعي. وتتمثل المشكلة في أن الروبوت يمكنه توليد مستندات شبيهة تمامًا بالبطاقات الأصلية بمجرد إدخال بيانات محددة مثل الاسم وتاريخ الميلاد والعنوان، كما أفاده موقع “Gulf News“.

يأتي هذا التطور بعد انتشار ظاهرة “غيبيلي” (Ghibli) التي شهدت تعديل الصور الشخصية باستخدام الذكاء الاصطناعي ليؤكد القلق بشأن قدرة التكنولوجيا على تزوير مستندات رسمية. فقد بدأت تظهر نسخ مزورة من بطاقات Aadhaar الهندية على منصات التواصل الاجتماعي ما أثار مخاوف من أن هذه البطاقات قد تخدع الأفراد، رغم افتقارها لبعض ميزات الأمان مثل أكواد QR أو النصوص الدقيقة.

المثير للقلق هو أنه يمكن استخدام هذه التقنية لتزوير بطاقات هوية لشخصيات عامة مثل سام ألتمان المدير التنفيذي لـ OpenAI وإيلون ماسك المدير التنفيذي لـ Tesla مما يزيد من صعوبة التمييز بين المستندات المزورة والحقيقية. وتظهر هذه القضية ثغرات واضحة في الرقابة على استخدام الذكاء الاصطناعي حيث يتمكن المستخدمون من تجاوز القيود المفروضة لإنشاء محتوى ضار.

وإضافة إلى بطاقات Aadhaar، يمتد خطر الاحتيال إلى بطاقات PAN الهندية مما يعزز احتمالات وقوع الجرائم الإلكترونية. وتكشف هذه القدرة المتزايدة للذكاء الاصطناعي على محاكاة مستندات هوية أساسية عن المخاطر الكبيرة التي قد تنجم عن هذه التكنولوجيا.

تواجه OpenAI ضغوطًا متزايدة للتعامل مع هذه المخاطر حيث أدركت المخاطر المرتبطة بإصداراتها الأخيرة مثل ChatGPT، والتي تكشف عن ثغرات لم تكن موجودة في الإصدارات السابقة. في الوقت ذاته، يشير الخبراء إلى أن التطور السريع في تكنولوجيا الذكاء الاصطناعي يتطلب تشريعات تنظيمية أقوى لضمان الأمان وحماية الأفراد من الأنشطة الاحتيالية المتزايدة.

تستمر المخاوف بشأن إمكانية استخدام الذكاء الاصطناعي في تزوير مستندات رسمية مما يطرح تساؤلات حول مدى قدرة الحكومات والمنظمات على حماية البيانات الحساسة من هذه الأنواع من المخاطر.

Web Desk

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

برجاء تعطيل حاجب الإعلانات للاستمرار في استخدام موقعنا