
في عالم يتغير بوتيرة لم يعهدها الإنسان من قبل، أصبح الذكاء الاصطناعي جزءا لا يتجزأ من تفاصيل حياتنا اليومية. فهو يكتب ويترجم ويقترح، بل ويُحلل تعقيدات الاقتصاد والسياسة بمنطق يثير الإعجاب.
ومع كل هذا، يبرز سؤال يوشك أن ينفجر في وجه البشرية: هل يمكن للآلة أن تحكم؟ هل تستطيع أن تُصدر فتوى أو حكما قضائيا في مسائل تتعلق بالضمير والنية والمبادئ؟
ليست المشكلة في قدرة الذكاء الاصطناعي على تحليل المعلومات بل في عجزه عن الشعور. فالقرارات الأخلاقية لم تكن يوما مجرد عمليات حسابية تعتمد على مدخلات ومخرجات؛ إنها انعكاس لعمق التجربة الإنسانية بكل ما تحمله من تردد وتأنيب ضمير وصراع داخلي بين الحق والواجب.
وفي وقت يتزايد فيه الحديث عن إحلال “الخوارزميات” محل “العقل البشري” في إصدار الأحكام الأخلاقية والشرعية يصبح من الضروري أن نعيد طرح الأسئلة الكبرى:
– ما الفرق بين الأخلاق والآداب؟
– هل تستطيع الآلة أن تفرّق بين الصواب والخطأ في قضايا تتجاوز المنطق البارد؟
– وهل يمكن لقرارات خالية من الشعور بالندم أو الرحمة أن تحمي كرامة الإنسان وحقوقه؟
ومن هذا المنطلق، نقدّم لقرّائنا حوارا فكريا عميقا دار بين الدكتور محمد مشتاق، أستاذ القانون في باكستان، وبين نظام الذكاء الاصطناعي “ChatGPT” تناول فيه الجانبان إشكاليات الفلسفة الأخلاقية في عصر التكنولوجيا.
سؤال: بداية، ما هو الفرق الجوهري بين “الأخلاق” و”الآداب”؟ ولماذا يحدث الخلط بينهما؟
جواب: الأخلاق (Morality) تعكس منظومة القيم والمعتقدات التي يحملها الفرد داخله وهي غالبا نابعة من التربية والدين والثقافة.
أما الآداب (Ethics) فهي فرع من الفلسفة يبحث في المبادئ العامة للصواب والخطأ محاولا وضع قواعد عقلانية يمكن تطبيقها في المواقف المختلفة.
الخلط بين المصطلحين شائع لأن كليهما يتعامل مع الصواب والخطأ إلا أن الأخلاق تميل إلى كونها شخصية ومجتمعية بينما الآداب تسعى لصياغة معايير كونية.
سؤال: هل يمكن أن يكون فعلٌ ما صحيحا من منظور الآداب وخاطئا أخلاقيا أو العكس؟
جواب: نعم. مثال بسيط على ذلك: الكذب لإنقاذ حياة إنسان. من منظور الآداب التي تعتمد على مبدأ “المنفعة العامة” قد يكون هذا التصرف مبررا لأنه يحقق خيرا أكبر.
لكن من منظور أخلاقي صارم، الكذب يظل فعلا مرفوضا لأنه يتعارض مع مبدأ الصدق.
وبالتالي، الأحكام تتغير وفقا للزاوية التي ننظر منها؛ هل هي زاوية النتائج أم زاوية المبادئ الثابتة.
سؤال: في معضلة “القطار” الشهيرة، هل ينبغي تغيير مسار القطار لقتل شخصين بدلا من ثلاثة؟
جواب: هذه المسألة الفلسفية تُعرف باسم “Trolley Problem“. الرأي ينقسم هنا بين من يرى أن تغيير المسار لتقليل عدد الضحايا هو الخيار “الأقل ضررا” وبين من يعتقد أن التدخل عمدا في إزهاق الأرواح أمر غير أخلاقي مهما كانت نتائجه.
الاختلاف يعكس الصراع بين منطق “النتائج” (Consequentialism) ومنطق “الواجب الأخلاقي” (Deontology) ولا توجد إجابة واحدة صحيحة.
سؤال: ماذا عن القتل بدافع الرحمة (Euthanasia)؟ هل موقف الأخلاق والآداب منه موحد؟
جواب: القتل بدافع الرحمة ينقسم إلى نوعين:
القتل الإيجابي: إنهاء حياة المريض عمدا لتخفيف ألمه.
القتل السلبي: الامتناع عن التدخل الطبي وترك المريض يموت طبيعيا.
القتل الإيجابي محل جدل شديد لأنه يتعارض مع مبدأ قدسية الحياة بينما القتل السلبي غالبا ما يُنظر إليه باعتباره احتراما لكرامة المريض واستقلاليته. لكن في الحالتين، تبقى الآراء منقسمة حسب القيم الثقافية والدينية.
سؤال: هل هناك فرق أخلاقي بين “الفعل” (commission) و”الامتناع عن الفعل” (omission) إذا كانت النتائج واحدة؟
جواب: نعم، هناك فرق فلسفي عميق. رغم أن النتيجة قد تكون واحدة – مثل قتل شخص أو الامتناع عن إنقاذه – إلا أن الشعور الأخلاقي تجاه الفعلين مختلف.
المجتمع يميل إلى اعتبار “الامتناع عن الفعل” أقل وطأة من “الفعل المتعمد” رغم أن بعض الفلاسفة يرون أنهما في جوهرهما مسؤولية أخلاقية واحدة.
الفرق هنا يعتمد كثيرا على نية الفاعل والسياق والموروث الديني والثقافي .
سؤال: هل النوايا أهم من النتائج عند تقييم الأفعال أخلاقيا؟
جواب: كلاهما مهم. بعض الفلسفات الأخلاقية (كالكانتية) تعطي أولوية للنوايا بينما فلسفات أخرى (كالنفعية) تركز على النتائج.
مثلا: قد يُعتبر فعل ناتج عن نية حسنة أخلاقيا حتى لو أسفر عن نتائج سلبية في حين يُدان الفعل ذو النتائج الإيجابية إذا انبثق عن نية سيئة.
وفي كل الأحوال، توجد عناصر أخرى مثل العدالة والكرامة وحقوق الإنسان تدخل في الحكم الأخلاقي.
سؤال: عندما نتحدث عن نتائج الأفعال أخلاقيا، هل نقصد بذلك تأثيرها على الآخرين فقط؟ أم يشمل ذلك الشخص الفاعل أيضا؟
جواب: عادة ما يُنظر إلى نتائج الأفعال في إطار تأثيرها على الآخرين. ومع ذلك، في بعض النظم الأخلاقية تُؤخذ في الاعتبار أيضًا الحالة النفسية والروحية للفاعل؛ مثل راحة الضمير أو الشعور بالذنب.
فالنتائج ليست دائما مادية بحتة بل قد تكون معنوية أو روحية وهذا ما يجعل الحكم الأخلاقي مسألة مركّبة تتجاوز الظاهر.
سؤال: إذا كان الذكاء الاصطناعي لا يشعر بالندم أو الراحة النفسية، فكيف يمكنه اتخاذ قرارات أخلاقية؟
جواب: الذكاء الاصطناعي يتخذ قراراته بناءً على معطيات وقواعد مبرمجة وليس بناءً على إحساس بالذنب أو راحة الضمير. هو لا يملك وعيا ذاتيا أو شعورا داخليا بل يعتمد كليا على خوارزميات وضعها البشر.
وبالتالي، فإن “قراراته الأخلاقية” ليست نابعة من ضمير بل من حسابات منطقية تعتمد على ما قيل له أنه “صواب” أو “خطأ”.
وهذا يحد من قدرته على التعامل مع القضايا التي تتطلب إحساسا إنسانيا عميقا.
سؤال: إذن، هل يمكننا الاعتماد على الذكاء الاصطناعي في إصدار أحكام أخلاقية؟
جواب: الذكاء الاصطناعي قد يكون أداة تحليل قوية تساعد في جمع المعطيات وتقديم بدائل بناء على منطق ومعايير محددة.
لكن اتخاذ القرار الأخلاقي النهائي خاصة في القضايا التي تمس كرامة الإنسان وضميره، سيبقى مسؤولية بشرية.
الآلة قد تُحاكي “الضمير” لكنها لن تملكه أبدا.
في نهاية المطاف، قد ينجح الذكاء الاصطناعي في حساب المعادلات المعقدة وقد يتفوق على الإنسان في سرعة التحليل ودقة المعلومات لكنه يظل حبيس إطار جامد من الأوامر والبيانات.
الآلة لا تتردد. لا تشك. لا تشعر بالذنب إذا أخطأت. ولا ترتجف يدها حين تقف أمام قرار يحمل في طياته حياة إنسان وكرامته.
القرارات الأخلاقية ليست مجرد مسائل منطقية تحلها الخوارزميات بل هي انعكاس لصراع داخلي بين قيم متداخلة لا يُمكن حصرها في جملة برمجية. الذكاء الاصطناعي قد يصبح “مستشارا” ماهرا يساعدنا في رؤية الزوايا المختلفة للمشكلة لكنه لن يكون أبدا “صاحب القرار”.
فالسؤال الحقيقي الذي يجب أن نطرحه على أنفسنا ليس: هل تستطيع الآلة أن تحكم؟
بل: هل نريد نحن أن نتنازل عن ضميرنا ونسلّمه إلى آلة؟ إننا اليوم أمام خيار أخلاقي لا تقرره التكنولوجيا بل تقرره إنسانيتنا.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري ل UrKish News.