
أعلنت شركة “OpenAI” عن إطلاق ميزة “الوكيل” في نموذج “شات جي بي تي”، القادرة على تنفيذ مهام رقمية معقدة نيابة عن المستخدم، مثل جمع البيانات وحجز الرحلات وإعداد العروض التقديمية. لكن الشركة حذّرت في الوقت ذاته من أن الأداة قد تُستخدم في أنشطة خطيرة، على رأسها تصنيع أسلحة بيولوجية.
ووفقًا لتقرير نشرته مجلة Fortune، صنّفت “OpenAI” النموذج الجديد ضمن الفئة “عالية الخطورة” من حيث احتمال إساءة الاستخدام البيولوجي ما دفعها لتطبيق إجراءات وقائية صارمة تشمل أنظمة مراقبة ذكية ورفض تلقائي للطلبات الخطرة ومراجعة يدوية للأنشطة المشبوهة.
وأكدت الشركة أن هذا التصنيف يأتي كخطوة احترازية رغم عدم وجود أدلة مباشرة على قدرة الوكيل على تمكين مبتدئين من إحداث ضرر فعلي. وقال بواز باراك عضو الفريق الفني في “OpenAI”: إن “الخطر لم يعد نظريا” مشيرا إلى أن النماذج المتقدمة قد تسد الفجوة المعرفية لدى غير المختصين وتوفر إرشادات بمستوى خبير.
يأتي هذا التطور في وقت تتسابق فيه كبرى شركات التقنية مثل “جوجل” و”أنثروبيك” على تطوير وكلاء ذكاء اصطناعي مستقلين وسط تزايد المخاوف من الاستخدامات غير الآمنة لهذه الأدوات.
Web Desk