مسؤولية أخلاقية
المسؤولية الأخلاقية في الفلسفة هي حالة (من الناحية الأخلاقية) تستحق الثناء أواللوم أوالمكافأة أو العقاب بنتيجة فعل أو امتناع عن فعل وفقًا لالتزامات أخلاقية معينة.[1][2][3] ويُعتبر تحديد ما إذا كان أي شيء ما «ملزما من الناحية الأخلاقية» مصدر قلق رئيسي للأخلاقيات. لايشير الفلاسفة إلى الأشخاص الذين يتحملون المسؤولية الأخلاقية علي أنهم وكلاء للأخلاقية. حيث يكون لديهم القدرة على التفكير في وضعهم، وتشكيل نوايا حول كيفية تصرفهم، ومن ثم تنفيذ ذلك الإجراء. وأصبح مفهوم حرية الإرادة مسألة هامة في النقاش حول ما إذا كان الأفراد مسؤولون أخلاقيا عن أفعالهم أكثر من أي وقت مضى. المسؤولية الأخلاقية لا تساوي بالضرورة مع المسؤولية القانونية. فالشخص يكون مسؤول قانونا عن حدث ما عندما يكون النظام القانوني عرضة لمعاقبة ذلك الشخص بسبب هذا الحدث. مثال على ذلك قصيدة «أولاً جاءوا ...» للقس الألماني مارتن نيمولر.
لا تتساوى المسؤولية الأخلاقية بالضرورة مع المسؤولية القانونية. يُعتبر الفرد مسؤولًا قانونيًا عن حدث ما عند مواجهته عقوبات مفروضة من النظام القانوني جراء ذلك الحدث. على الرغم من ذلك، يواجه الفرد المسؤول أخلاقيًا عن فعل ما في كثير من الأحيان مسؤولية قانونية مصاحبة لهذا الفعل، لكن لا تتطابق الحالتان دائمًا.
البحث التجريبي
عدليقترح ماورو أن الإحساس بالمسؤولية الشخصية غير نابع أو متطور عالميًا بين البشر، إذ جادل بغياب هذا الإحساس لدى حضارة إيراكوي الناجحة.[4]
في السنوات الأخيرة، سعت أبحاث الفلسفة التجريبية إلى استقصاء مدى توافقية أو لاتوافقية الحدس الفطري للشخص حيال كل من الحتمية والمسؤولية الأخلاقية. شملت هذه الدراسات التجريبية عددًا من الدراسات العابرة للثقافات.[5] مع ذلك، لم يصل النقاش الدائر حول توافقية أو لاتوافقية الحدس الفطري إلى نتيجة لصالح إحدى وجهتي النظر، إذ خلصت النقاشات إلى العديد من الأدلة الداعمة لكلا الطرفين. على سبيل المثال، يميل الأفراد إلى الإجابة بالنفي، أو تقديم إجابات لاتوافقية، عند عرض حالات مجردة عليهم وسؤالهم عن إمكانية اعتبار الشخص مسؤولًا أخلاقيًا عن سلوك غير أخلاقي عند إرغامه على فعله. في المقابل، يميل الأفراد إلى الإجابة بأن الفرد مسؤول أخلاقيًا عن أفعاله، حتى مع حتميتها (أي، يقدمون إجابات توافقية)، عند سؤالهم عن سلوك غير أخلاقي محدد مرتكب من قبل شخص محدد.[6]
يدرس علم الأعصاب الخاص بالإرادة الحرة مختلف التجارب التي من شأنها إلقاء الضوء على الإرادة الحرة.
المسؤولية الجماعية
عدلعادة ما تُسند المسؤولية إلى أفراد من الوكلاء الأخلاقيين عند محاولة إسنادها. مع ذلك، جادل جويل فاينبيرغ، من بين آخرين، بإمكانية تحمل الشركات والمجموعات البشرية الأخرى ما يُسمى «المسؤولية الأخلاقية الجماعية» عن حالة من الشؤون المتعددة.[7] على سبيل المثال، في فترة حكم نظام الفصل العنصري الأبارتايد لجنوب أفريقيا، أمكن تحميل حكومة الدولة المسؤولية الأخلاقية الجماعية عن انتهاك حقوق مواطني جنوب أفريقيا من غير الأوروبيين.[8]
افتقار المسؤولية الأخلاقية في الاعتلال النفسي
عدلتشمل السمات المحددة للاعتلال النفسي «فشل الفرد في تحمل مسؤولية أفعاله».[9]
الأنظمة الاصطناعية
عدلترافقت نشأة التشغيل الآلي، والروبوتية وغيرها من التقنيات ذات الصلة بظهور تساؤل حول «إمكانية اعتبار النظام الصناعي مسؤولًا أخلاقيًا»، ويتخذ هذا التساؤل شكلًا آخر في السؤال، «متى يمكن (في حال أمكن ذلك على الإطلاق) انتقال المسؤولية الأخلاقية من الصانع الإنسان إلى النظام؟».[10][11]
يتداخل هذان التساؤلان جدلًا مع أخلاقيات الآلة، على الرغم من اختلافهما عنها، إذ تهتم الأخيرة في السلوك الأخلاقي للأنظمة الاصطناعية. يكمن التركيز الرئيسي للنقاش في مدى اعتبار سلوك النظام الآلي مؤهلًا لإيلاء أي مسؤولية أخلاقية لهذا النظام.
الحجج المعارضة لإمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا
عدلافترضت باتيا فريدمان إلى جانب بيتر كان الابن أن القصدية شرط ضروري للمسؤولية الأخلاقية، وأن الأنظمة الحاسوبية، كما يمكن تصورها في عام 1992، مفتقرة للقصدية في مادتها وبنيتها.[11]
جزم آرثر كوفليك بوجوب تحمل البشر المسؤولية الأخلاقية المطلقة عن جميع القرارات الحاسوبية، إذ أن تصميم هذه الحواسيب وكتابة برامجها عائد بأكمله إلى البشر. أشار أيضًا إلى استحالة تنازل البشر عن إشرافهم على الأجهزة الحاسوبية. [10]
نظر فرانسيس غرودزنسكي وآخرون في الأنظمة الاصطناعية القابلة للنمذجة بوصفها آلات محدودة الحالات. افترضوا أن الآلة غير مسؤولة أخلاقيًا عند امتلاكها جدول انتقال ثابت الحالة. حتى في حال قدرة الآلة على تعديل جدولها، تبقى درجة من المسؤولية الأخلاقية على عاتق مصمم الآلة.[12]
جادل باتريك هيو بإمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا عند نشوء قواعد سلوكها وآليات تزويدها بهذه القواعد بشكل مستقل عن البشر الخارجيين دون تزويدهم لها بالكامل. جادل هيو معتبرًا هذه الأنظمة بمثابة خروج جوهري عن التقنيات والنظرية الموجودة في عام 2014. لا يتحمل النظام الاصطناعي القائم على هذه التقنيات أي مسؤولية عن سلوكه. يتحمل البشر صانعو هذا النظام ومبرمجوه المسؤولية الأخلاقية.[12]
الحجج المؤيدة لإمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا
عدلاقترح كولن آلن وآخرون إمكانية اعتبار الأنظمة الاصطناعية مسؤولة أخلاقيًا عند عدم القدرة على تمييز سلوكياتها وظيفيًا عن الشخص الأخلاقي، فصاغوا فكرة «اختبار تورنغ الأخلاقي». تنكر آلن وزملاؤه لاحقًا لاختبار تورنغ الأخلاقي جراء الجدل المحيط باختبار تورنغ.[13]
وصف أندرياس ماتياس ما أسماه «فجوة المسؤولية»، معتبرًا أنه من الظلم تحميل البشر المسؤولية عن الآلة، وأن إسناد المسؤولية للآلة من شأنه تحدي أساليب الإسناد «التقليدية». اعتبر ماتياس أن سلوك الآلة عائد إلى الآلة نفسها، وليس إلى مصمميها أو مشغليها، في ثلاث حالات مقترحة. أولًا، جادل بأن الآلات الحديثة غير قابلة للتنبؤ بشكل متأصل (إلى حد ما)، إذ تؤدي المهام الموكلة إليها، لكن يتعذر التحكم بها بوسائل أبسط. ثانيًا، أن «طبقات الغموض» آخذة في الازدياد بين المصنّعين والنظام، نظرًا إلى استبدال البرامج المشفرة يدويًا بأخرى أكثر تطورًا. ثالثًا، في الأنظمة ذات قواعد التشغيل القابلة للتغير خلال تشغيل الآلة.[14]
مراجع
عدل- ^ "معلومات عن مسؤولية أخلاقية على موقع jstor.org". jstor.org. مؤرشف من الأصل في 2020-05-16.
- ^ "معلومات عن مسؤولية أخلاقية على موقع id.ndl.go.jp". id.ndl.go.jp. مؤرشف من الأصل في 2021-05-01.
- ^ "معلومات عن مسؤولية أخلاقية على موقع thes.bncf.firenze.sbn.it". thes.bncf.firenze.sbn.it. مؤرشف من الأصل في 2021-05-13.
- ^ Nahmias، Eddy؛ Stephen Morris؛ Thomas Nadelhoffer؛ Jason Turner (2006). "Is Incompatibilism Intuitive?". Philosophy and Phenomenological Research. ج. 73 ع. 1: 28–52. CiteSeerX:10.1.1.364.1083. DOI:10.1111/j.1933-1592.2006.tb00603.x.
- ^ Mauro, Frédéric (1964). L'expansion européenne (1680–1870) [European expansion (1680–1870)]. Nouvelle Clio: L'Histoire et ses problèmes (بالفرنسية). Paris: Presses Universitaires de France. Vol. 27. p. 213.
Ces langues nouvelles vehiculent des concepts nouveaux et des idées parfois fort difficiles a comprendre: par exemple le principe de responsibilité personnelle pour les Iroquiens. [Translation: These new languages introduce new concepts and new ideas—sometimes very difficult to understand—for example the principle of personal responsibility for the Iroquois.]
- ^ Nichols، Shaun؛ Joshua Knobe (2007). "Moral Responsibility and Determinism: The Cognitive Science of Folk Intuitions". Noûs. ج. 41 ع. 4: 663–685. CiteSeerX:10.1.1.175.1091. DOI:10.1111/j.1468-0068.2007.00666.x.
- ^ Giesler، Markus؛ Veresiu، Ela (2014). "Creating the Responsible Consumer: Moralistic Governance Regimes and Consumer Subjectivity". Journal of Consumer Research. ج. 41 ع. October: 849–867. DOI:10.1086/677842.
- ^ Risser, David T. 2006. 'Collective Moral Responsibility'. موسوعة الإنترنت للفلسفة (Accessed 8 Sept 2007)
- ^ Harpur, T. J.؛ Hare, R. D.؛ Hakstian, A. R. (1989). "Two-factor conceptualization of psychopathy: Construct validity and assessment implications". Psychological Assessment. ج. 1 ع. 1: 6–17. DOI:10.1037/1040-3590.1.1.6.
- ^ ا ب Grodzinsky، Frances S.؛ Miller، Keith W.؛ Wolf، Marty J. (21 يونيو 2008). "The ethics of designing artificial agents". Ethics and Information Technology. ج. 10 ع. 2–3: 115–121. DOI:10.1007/s10676-008-9163-9. S2CID:41344925.
- ^ ا ب Kuflik، Arthur (1999). "Computers in control: Rational transfer of authority or irresponsible abdication of autonomy?". Ethics and Information Technology. ج. 1 ع. 3: 173–184. DOI:10.1023/A:1010087500508. S2CID:44313234.
- ^ ا ب Hew، Patrick Chisan (13 مايو 2014). "Artificial moral agents are infeasible with foreseeable technologies". Ethics and Information Technology. ج. 16 ع. 3: 197–206. DOI:10.1007/s10676-014-9345-6. S2CID:18431764.
- ^ Allen، Colin؛ Smit، Iva؛ Wallach، Wendell (سبتمبر 2005). "Artificial Morality: Top-down, Bottom-up and Hybrid Approaches". Ethics and Information Technology. ج. 7 ع. 3: 149–155. CiteSeerX:10.1.1.307.7558. DOI:10.1007/s10676-006-0004-4. S2CID:4563893.
- ^ Matthias، Andreas (2004). "The responsibility gap: Ascribing responsibility for the actions of learning automata". Ethics and Information Technology. ج. 6 ع. 3: 175–183. CiteSeerX:10.1.1.456.8299. DOI:10.1007/s10676-004-3422-1. S2CID:21907954.