
كشفت تقارير إعلامية عن اقتراح غير مسبوق من كبير العلماء السابق في OpenAI إيليا سوتسكيفر يقضي بإنشاء “مخبأ يوم القيامة” (Doomsday Bunker) لحماية الباحثين من المخاطر المحتملة التي قد تترتب على إطلاق الذكاء الاصطناعي العام (AGI)، وهو النوع من الذكاء الاصطناعي الذي قد يتجاوز الذكاء البشري في القدرة والتحليل.
وبحسب ما ورد في كتاب الصحفية المتخصصة كارين هاو، “إمبراطورية الذكاء الاصطناعي: الأحلام والكوابيس في OpenAI بقيادة سام ألتمان” فإن سوتسكيفر طرح هذا الاقتراح خلال اجتماع داخلي في صيف عام 2023، حيث قال: “نحن بالتأكيد سنبني مخبأ قبل أن نُطلق AGI“، وفق ما نقله موقع “Windows Central“.
مصادر داخل الشركة أكدت أن هذه ليست المرة الأولى التي يشير فيها سوتسكيفر إلى فكرة المخبأ إذ تكررت مداخلاته في اجتماعات ومناقشات داخلية بشأن مستقبل الذكاء الاصطناعي وخطره المحتمل على البشرية وهو ما أثار قلقًا واسعًا بين عدد من الباحثين داخل المؤسسة.
وتأتي هذه التطورات وسط تقديرات متزايدة تشير إلى أن شركات كبرى مثل OpenAI، DeepMind وAnthropic تقترب من تحقيق الذكاء الاصطناعي العام خلال هذا العقد. وقد عبّر رؤساء هذه الشركات عن آراء متباينة بشأن تأثير AGI على المجتمع.
الرئيس التنفيذي لـ OpenAI سام ألتمان قلل من شأن المخاوف مؤكدا أن لحظة الوصول إلى AGI “لن تكون صادمة” وأنها ستمر “بهدوء نسبي دون تأثير اجتماعي كبير”. بالمقابل، عبّر ديميس هاسابيس الرئيس التنفيذي لشركة DeepMind عن قلقه الشديد من تسارع التطور في هذا المجال مؤكدا أن “المجتمع غير مستعد” لمثل هذا التحول الكبير.
من جانبه، أشار داريو أمودي الرئيس التنفيذي لشركة Anthropic إلى أن هناك فجوة كبيرة في فهم كيفية عمل نماذج الذكاء الاصطناعي مما يزيد من حدة المخاطر داعيا إلى مزيد من الحذر.
في السياق ذاته، حذّر الدكتور رومان يامبولسكي الباحث في أمن الذكاء الاصطناعي ومدير مختبر الأمن السيبراني بجامعة لويفيل من احتمال مرتفع بأن يؤدي الذكاء الاصطناعي إلى نهاية البشرية مشيرا إلى أن نسبة الخطر تصل إلى 99.999999%.
ومع استمرار تقدم هذه التكنولوجيا بوتيرة غير مسبوقة، يطرح العديد من الباحثين والمراقبين تساؤلا جوهريا: هل العالم مستعد فعلاً لمواجهة تداعيات ظهور ذكاء اصطناعي يتفوق على البشر؟
Web Desk