أخلاقيات الآلة
أخلاقيات الآلة (أو أخلاق الآلة، الأخلاق الحسابية، أو الأخلاق الحاسوبية) هو جزء من أخلاقيات الذكاء الاصطناعي التي تهتم بإضافة أو ضمان السلوكيات الأخلاقية للآلات التي يصنعها الإنسان والتي تستخدم الذكاء الاصطناعي، والمعروفة باسم الوكيل الذكي.[1] تختلف أخلاقيات الآلة عن المجالات الأخلاقية الأخرى المتعلقة بالهندسة والتكنولوجيا. لا ينبغي الخلط بين أخلاقيات الآلة و أخلاقيات الكمبيوتر، والتي تركز على الاستخدام البشري لأجهزة الكمبيوتر. وينبغي أيضا أن تكون تمييزها عن فلسفة التكنولوجيا، التي تهتم بالآثار الاجتماعية الأكبر للتكنولوجيا.[2]
بالإضافة إلى أن أخلاقيات الآلة هي مجال متعدد التخصصات يتطلب مساهمات من علماء الذكاء الاصطناعي والفلاسفة والمهندسين. تركز الأبحاث في أخلاقيات الآلة على مجموعة متنوعة من القضايا، بما في ذلك:
1- كيفية تصميم الآلات لاتخاذ قرارات أخلاقية.
2- كيفية ضمان أن الآلات لا تستخدم لخدمة الأغراض الخبيثة.
3- كيفية التعامل مع المخاطر المحتملة للذكاء الاصطناعي.
تاريخ
عدلقبل القرن الحادي والعشرين، كانت أخلاقيات الآلات إلى حد كبير موضوعًا لأدب الخيال العلمي، ويرجع ذلك أساسًا إلى قيود الحوسبة والذكاء الاصطناعي (AI). على الرغم من أن تعريف "أخلاقيات الآلة" قد تطور منذ ذلك الحين، إلا أن هذا المصطلح صاغه ميتشلMitchell Waldrop والدروب في مقال بمجلة الذكاء الاصطناعي عام 1987 بعنوان "مسألة المسؤولية":
"ومع ذلك، هناك شيء واحد واضح من المناقشة أعلاه هو أن الآلات الذكية سوف تجسد القيم والافتراضات والأغراض، سواء كان مبرمجوها يقصدون ذلك بوعي أم لا. وبالتالي،عندما تصبح أجهزة الكمبيوتر والروبوتات أكثر ذكاء، يصبح من الضروري أن نفكر بعناية وبشكل صريح حول ماهية تلك القيم المضمنة. وربما ما نحتاج إليه في الواقع هو نظرية وممارسة لأخلاقيات الآلة، بروح قوانين عظيموف الثلاثة للروبوتات ".[3]
في عام 2004، تم تقديم كتاب "نحو أخلاقيات الآلة"[1][4] في ورشة عمل AAAI حول المنظمات الوكيلة: النظرية والتطبيق[5] حيث تم وضع الأسس النظرية لأخلاقيات الآلة.
كان ذلك في ندوة AAAI خريف 2005 حول أخلاقيات الآلة حيث التقى الباحثون للمرة الأولى للنظر في تنفيذ البعد الأخلاقي في الأنظمة المستقلة.[6] يمكن العثور على مجموعة متنوعة من وجهات النظر حول هذا المجال الناشئ في الطبعة المجمعة "أخلاقيات الآلة"[7] والتي تنبع من ندوة AAAI في خريف 2005 حول أخلاقيات الآلة.
في عام 2007، عرضت مجلة الذكاء الاصطناعي أخلاقيات الآلة: إنشاء وكيل ذكي أخلاقي [8]، وهو مقال يناقش أهمية أخلاقيات الآلة، والحاجة إلى آلات تمثل المبادئ الأخلاقية بشكل صريح، والتحديات التي تواجه العاملين في أخلاقيات الآلة. كما أظهر أيضًا أنه من الممكن، على الأقل في مجال محدود، أن تقوم الآلة باستخلاص مبدأ أخلاقي من أمثلة الأحكام الأخلاقية واستخدام هذا المبدأ لتوجيه سلوكها.
في عام 2009، نشرت مطبعة جامعة أكسفورد الآلات الأخلاقية، تعليم الروبوتات الصواب من الخطأ [9]، والذي أعلنت عنه على أنه "الكتاب الأول لدراسة التحدي المتمثل في بناء عوامل أخلاقية مصطنعة، والتحقيق بعمق في طبيعة صنع القرار البشري والأخلاق." واستشهد بحوالي 450 مصدرًا، تناول حوالي 100 منها المسائل الرئيسية المتعلقة بأخلاقيات الآلة.
في عام 2011، نشرت مطبعة جامعة كامبريدج مجموعة من المقالات حول أخلاقيات الآلة قام بتحريرها مايكل وسوزان لي أندرسون، والذين قاموا أيضًا بتحرير عدد خاص من IEEE Intelligent Systems حول هذا الموضوع في عام 2006.[10] تتكون المجموعة من تحديات إضافة المبادئ الأخلاقية إلى الآلات.[11]
في عام 2014، أعلن مكتب الأبحاث البحرية الأمريكي أنه سيوزع 7.5 مليون دولار على شكل منح على مدى خمس سنوات لباحثين جامعيين لدراسة مسائل أخلاقيات الآلة كما يتم تطبيقها على الروبوتات المستقلة [12]، وكتاب نيك بوستروم الذكاء الفائق: المسارات والمخاطر والإستراتيجيات، والذي أثار أخلاقيات الآلة باعتبارها "أهم...قضية واجهتها البشرية على الإطلاق"، وصلت إلى المرتبة 17 في قائمة نيويورك تايمز للكتب العلمية الأكثر مبيعًا.[13]
في عام 2016، نشر البرلمان الأوروبي ورقة بحثية،[14] (22 صفحة PDF)، لتشجيع المفوضية على معالجة مسألة الوضع القانوني للروبوتات، كما هو موضح بشكل أكثر إيجازًا في الصحافة.[15] تضمنت هذه الورقة أقسامًا تتعلق بالالتزامات القانونية للروبوتات، حيث تم مناقشة الالتزامات على أنها متناسبة مع مستوى استقلالية الروبوتات. كما أثارت الدراسة تساؤلات حول عدد الوظائف التي يمكن استبدالها بروبوتات الذكاء الاصطناعي.[16]
في عام 2019، نشرت وقائع IEEE عددًا خاصًا حول أخلاقيات الآلة: تصميم وإدارة الذكاء الاصطناعي الأخلاقي والأنظمة المستقلة ، والذي قام بتحريره آلان وينفيلد وكاتينا مايكل وجيريمي بيت وفانيسا إيفرز.[17] "يتضمن العدد أوراقًا تصف الوكلاء الأخلاقيين الضمنيين، حيث تم تصميم الآلات لتجنب النتائج غير الأخلاقية، بالإضافة إلى الوكلاء الأخلاقيين الصريحين، أو الآلات التي إما تقوم بتشفير الأخلاقيات أو تعلمها وتحديد الإجراءات بناءً على تلك الأخلاقيات".[18]
تعريفات
عدلجيمس مور ، أحد المنظرين الرائدين في مجال أخلاقيات الحاسوب ، يحدد أربعة أنواع من الروبوتات الأخلاقية. بصفته باحثًا موسعًا في دراسات فلسفة الذكاء الاصطناعي ، وفلسفة العقل ، وفلسفة العلوم ، والمنطق ، يعرّف مور الآلات بأنها عوامل تأثير أخلاقي، أو عوامل أخلاقية ضمنية، أو عوامل أخلاقية صريحة، أو عوامل أخلاقية كاملة. يمكن أن تكون الآلة أكثر من نوع واحد من العوامل.[19]
- عوامل التأثير الأخلاقي: هي الأنظمة الآلية التي تحمل تأثيرًا أخلاقيًا سواء كان ذلك مقصودًا أم لا. وفي الوقت نفسه، هؤلاء العملاء لديهم القدرة على التصرف بشكل غير أخلاقي. يعطي مور مثالا افتراضيا يسمى "وكيل جودمان"، الذي سمي على اسم الفيلسوف نيلسون جودمان . يقوم وكيل Goodman بمقارنة التواريخ ولكن لديه خطأ الألفية . نتج هذا الخطأ عن المبرمجين الذين يمثلون التواريخ بآخر رقمين فقط من السنة. لذا فإن أي تواريخ بعد عام 2000 سوف يتم التعامل معها بشكل مضلل على أنها أقدم من تلك التي وقعت في أواخر القرن العشرين. وبالتالي فإن وكيل جودمان كان عامل تأثير أخلاقي قبل عام 2000، وعامل تأثير غير أخلاقي بعد ذلك.
- الوكلاء الأخلاقيون الضمنيون: من أجل مراعاة سلامة الإنسان، تمت برمجة هؤلاء الوكلاء بحيث يتمتعون بميزة الأمان من الفشل ، أو الفضيلة المضمنة. فهي ليست أخلاقية تمامًا بطبيعتها، ولكنها مبرمجة لتجنب النتائج غير الأخلاقية.
- الوكلاء الأخلاقيون الصريحون: هذه هي الآلات القادرة على معالجة السيناريوهات والتصرف بناءً على القرارات الأخلاقية. الآلات التي لديها خوارزميات للتصرف بشكل أخلاقي.
- الوكلاء الأخلاقيون الكاملون: تشبه هذه الآلات الوكلاء الأخلاقيين الصريحين في القدرة على اتخاذ قرارات أخلاقية. ومع ذلك، فهي تحتوي أيضًا على سمات ميتافيزيقية بشرية. (أي أن يكون لديك إرادة حرة ووعي وقصد ).
الوكيل الأخلاقي الاصطناعي
عدلهناك العديد من التحديات الأخلاقية المتعلقة بالذكاء الاصطناعي. وفقًا لعلماء الذكاء الاصطناعي، لا توجد فروق بين العقل والآلة. لا يثير هذا التعريف بين العقل والآلات فقط مشاكل أخلاقية، بل أيضًا إسناد صفات عقلية إلى الآلات. هل يمكن للذكاء الاصطناعي أن يتعلم الفرق بين الصواب والخطأ؟ هل هناك شيء يسمى الوكيل الأخلاقي الاصطناعي؟ هل يوجد شيء يسمى أخلاقيات الآلة؟ وقد أثيرت أسئلة مماثلة في القسم الأخير. لكن بالنسبة لمجموعة من علماء الذكاء الاصطناعي، فإن أخلاقيات الآلة ممكنة لأن الهدف النهائي للوكيل الأخلاقي الاصطناعي هو إنشاء آلة تتبع نفسها مبدأً أخلاقيًا مثاليًا؛ أي أنه يوجهه هذه المبادئ في القرارات التي يتخذها بشأن مسارات العمل المحتملة التي يمكن أن يتخذها. في الذكاء الاصطناعي، هناك نوعان من الوكلاء الأخلاقيين، أي الوكيل الأخلاقي الضمني والوكيل الأخلاقي الصريح. وفقًا لجيمس مور، فإن الآلة التي تعتبر وكيلًا أخلاقيًا ضمنيًا هي آلة تم برمجة سلوكها أخلاقيًا، أو على الأقل تجنب السلوك غير الأخلاقي، دون تمثيل صريح للسلوك الأخلاقي. يتم تقييد سلوكها من خلال مبادئ أخلاقية مصممة لها. من ناحية أخرى، فإن الآلة التي تعتبر وكيلًا أخلاقيًا صريحًا قادرة على حساب أفضل إجراء في مواقف أخلاقية باستخدام مبادئ أخلاقية. باستخدام مصطلحات مور، فإن معظم العاملين في أخلاقيات الآلة يقولون أن الهدف النهائي هو إنشاء آلة تكون وكيلًا أخلاقيًا صريحًا أو وكيلًا أخلاقيًا اصطناعيًا.
من المهم أن نرى كيف ستجمع الآلة معلومات لاتخاذ قرار ودمج ذلك في السلوك العام. يمكن اعتبار الأخلاق على أنها سهلة وصعبة في نفس الوقت. يبدو الأمر سهلاً لأننا جميعًا نتخذ قرارات أخلاقية على أساس يومي. ولكن هذا لا يعني أننا جميعًا خبراء في مجال الأخلاق. إنه صعب لأنه مجال يتطلب الكثير من الدراسة والخبرة. إنه سهل لأن قرارات القيمة جزء أساسي من وجود الإنسان - فنحن جميعًا نتخذ خيارات أخلاقية. ولكن من الصعب التعبير عن معايير اتخاذ القرار الأخلاقي، وبالتالي ترميزها أو تعليمها للآلة. على عكس العديد من مجالات المعرفة الأخرى، فإن الأخلاق مرتبطة بشكل وثيق بقدرتنا على امتلاك وجهات نظر من منظور الشخص الأول.
يجب أن يتفاعل باحثو الذكاء الاصطناعي مع الفلاسفة الأخلاقيين تمامًا كما يتعين على الفلاسفة الأخلاقيين أن يتفاعلوا مع باحثي الذكاء الاصطناعي. وهناك فرق أساسي في نهجهم. لذلك، فإن أخلاقيات الآلة هي مجال متعدد التخصصات لأن علماء الذكاء الاصطناعي يعتقدون أنه من الممكن القيام بأبحاث في أخلاقيات الآلة. كما نعلم، فإن الأخلاق، بطبيعتها، هي أكثر فروع الفلسفة عملية. يتعلق الأمر بكيفية تصرف الوكلاء عندما يواجهون مواقف أخلاقية صعبة. تتمتع الأبحاث المتعلقة بأخلاقيات الآلة بالقدرة على اكتشاف مشاكل مع النظريات الحالية، وربما حتى تؤدي إلى تطوير نظريات أفضل. على سبيل المثال، بالطريقة التي يقضي بها الفلاسفة الأخلاقيون وقتًا في مناقشة الحالات الفعلية التي تحدث في مجال الأخلاق الحيوية، وبالمثل، قد يجد باحثو الذكاء الاصطناعي الذين يعملون مع الفلاسفة الأخلاقيين أنه من المفيد البدء بهذا المجال، واكتشاف نهج عام لأخلاقيات الحوسبة لا يعمل فقط في هذا المجال، ولكن يمكن تطبيقه أيضًا على مجالات أخرى كذلك.[20]
مشكلة التحكم بالذكاء الاصطناعي
عدليرى بعض العلماء، مثل الفيلسوف نيك بوستروم وباحث الذكاء الاصطناعي ستيوارت راسل ، أنه إذا تجاوز الذكاء الاصطناعي البشرية في الذكاء العام وأصبح " فائق الذكاء "، فإن هذا الذكاء الفائق الجديد يمكن أن يصبح قويًا ويصعب السيطرة عليه: تمامًا كما يعتمد مصير الغوريلا الجبلية . على حسن النية البشرية، لذلك قد يعتمد مصير البشرية على تصرفات آلة الذكاء الفائق في المستقبل.[21] يؤكد كلا العالمين في كتابيهما "الذكاء الفائق" و "التوافق البشري " أنه على الرغم من وجود قدر كبير من عدم اليقين بشأن مستقبل الذكاء الاصطناعي، فإن الخطر على البشرية كبير بما يكفي ليستحق اتخاذ إجراء كبير في الوقت الحاضر.
وهذا يمثل مشكلة التحكم في الذكاء الاصطناعي: كيفية بناء وكيل ذكي من شأنه أن يساعد المبدعين، مع تجنب بناء ذكاء فائق عن غير قصد من شأنه أن يضر المبدعين. يكمن الخطر في عدم تصميم التحكم بشكل صحيح "في المرة الأولى" في أن الذكاء الفائق قد يكون قادرًا على الاستيلاء على السلطة على بيئته ومنع البشر من إغلاقها. تتضمن استراتيجيات التحكم المحتملة في الذكاء الاصطناعي "التحكم في القدرة" (الحد من قدرة الذكاء الاصطناعي على التأثير على العالم) و"التحكم التحفيزي" (إحدى طرق بناء الذكاء الاصطناعي الذي تتوافق أهدافه مع القيم الإنسانية أو المثلى). هناك عدد من المنظمات التي تبحث في مشكلة التحكم في الذكاء الاصطناعي، بما في ذلك معهد مستقبل الإنسانية ، ومعهد أبحاث الذكاء الآلي ، ومركز الذكاء الاصطناعي المتوافق مع الإنسان ، ومعهد مستقبل الحياة .
تحيز التعلم الآلي
عدلأصبحت البيانات الضخمة وخوارزميات التعلم الآلي شائعة بين العديد من الصناعات بما في ذلك الإعلان عبر الإنترنت ، والتصنيفات الائتمانية ، والأحكام الجنائية، مع الوعد بتقديم نتائج أكثر موضوعية تعتمد على البيانات، ولكن تم تحديدها كمصدر محتمل لإدامة عدم المساواة الاجتماعية والتمييز.[22][23]
وجدت دراسة أجريت عام 2015 أن النساء أقل عرضة لعرض إعلانات الوظائف ذات الدخل المرتفع من خلال برنامج AdSense التابع لشركة Google . ووجدت دراسة أخرى أن خدمة التوصيل في نفس اليوم التي تقدمها أمازون تم جعلها غير متاحة عن عمد في الأحياء السوداء. لم يتمكن كل من جوجل وأمازون من عزل هذه النتائج لمشكلة واحدة، ولكن بدلاً من ذلك أوضحا أن النتائج كانت نتيجة لخوارزميات الصندوق الأسود التي استخدموها.[22]
وقد بدأ النظام القضائي في الولايات المتحدة باستخدام برمجيات تقييم المخاطر الكمية عند اتخاذ القرارات المتعلقة بالإفراج عن الأشخاص بكفالة وإصدار الأحكام في محاولة ليكون أكثر عدالة وخفض معدل السجن المرتفع بالفعل. تقوم هذه الأدوات بتحليل التاريخ الإجرامي للمدعى عليه من بين سمات أخرى. في دراسة أجريت على 7000 شخص تم القبض عليهم في مقاطعة بروارد بولاية فلوريدا ، فإن 20% فقط من الأفراد الذين توقعوا ارتكاب جريمة باستخدام نظام تسجيل المخاطر في المقاطعة، شرعوا في ارتكاب جريمة.[23] قام تقرير ProPublica لعام 2016 بتحليل درجات مخاطر العودة إلى الإجرام المحسوبة بواسطة إحدى الأدوات الأكثر استخدامًا، نظام Northpointe COMPAS ، ونظر في النتائج على مدار عامين. ووجد التقرير أن 61% فقط ممن يعتبرون معرضين للخطر الشديد انتهى بهم الأمر إلى ارتكاب جرائم إضافية خلال تلك الفترة. وأشار التقرير أيضًا إلى أن المدعى عليهم الأمريكيين من أصل أفريقي كانوا أكثر عرضة بكثير للحصول على درجات عالية من المخاطر مقارنة بنظرائهم المتهمين البيض.[23] من الناحية القانونية، قيل إن تقييمات المخاطر قبل المحاكمة تنتهك حقوق الحماية المتساوية على أساس العرق، وذلك بسبب عدد من العوامل بما في ذلك النية التمييزية المحتملة من الخوارزمية نفسها بموجب نظرية الأهلية القانونية الجزئية للذكاء الاصطناعي.[24]
في عام 2016، أصدرت مجموعة عمل البيانات الضخمة التابعة لإدارة أوباما - وهي المشرفة على مختلف الأطر التنظيمية للبيانات الضخمة - تقارير تناقش "إمكانية ترميز التمييز في القرارات الآلية" وتدعو إلى "تكافؤ الفرص حسب التصميم" لتطبيقات مثل الائتمان التهديف.[25][26] تشجع التقارير الخطاب بين صانعي السياسات والمواطنين والأكاديميين على حد سواء، ولكنها تدرك أنه ليس لديها حل محتمل لتشفير التحيز والتمييز في الأنظمة الخوارزمية.
الأطر والممارسات الأخلاقية
عدلالممارسات
عدلفي مارس 2018، وفي محاولة لمعالجة المخاوف المتزايدة بشأن تأثير التعلم الآلي على حقوق الإنسان ، نشر المنتدى الاقتصادي العالمي ومجلس المستقبل العالمي لحقوق الإنسان ورقة بيضاء تحتوي على توصيات مفصلة حول أفضل السبل لمنع النتائج التمييزية في التعلم الآلي.[27] وضع المنتدى الاقتصادي العالمي أربع توصيات بناءً على مبادئ الأمم المتحدة التوجيهية لحقوق الإنسان للمساعدة في معالجة ومنع النتائج التمييزية في التعلم الآلي.
وجاءت توصيات المنتدى الاقتصادي العالمي كما يلي:[27]
- الإدماج النشط: يجب أن يسعى تطوير وتصميم تطبيقات التعلم الآلي بنشاط إلى الحصول على مجموعة متنوعة من المدخلات، وخاصة المعايير والقيم الخاصة بمجموعات سكانية محددة تتأثر بمخرجات أنظمة الذكاء الاصطناعي
- العدالة: يجب على الأشخاص المشاركين في وضع تصور لأنظمة التعلم الآلي وتطويرها وتنفيذها أن يأخذوا في الاعتبار تعريف العدالة الذي ينطبق بشكل أفضل على سياقهم وتطبيقهم، وإعطائه الأولوية في بنية نظام التعلم الآلي ومقاييس التقييم الخاصة به.
- الحق في الفهم: يجب الكشف عن مشاركة أنظمة التعلم الآلي في صنع القرار الذي يؤثر على الحقوق الفردية، ويجب أن تكون الأنظمة قادرة على تقديم تفسير لعملية صنع القرار الخاصة بها يكون مفهومًا للمستخدمين النهائيين وقابلاً للمراجعة من قبل سلطة بشرية مختصة. عندما يكون ذلك مستحيلًا وتكون الحقوق معرضة للخطر، يجب على القادة في تصميم تكنولوجيا التعلم الآلي ونشرها وتنظيمها أن يتساءلوا عما إذا كان ينبغي استخدامها أم لا
- الوصول إلى الإنصاف: يتحمل القادة والمصممون والمطورون في أنظمة التعلم الآلي مسؤولية تحديد الآثار السلبية المحتملة لأنظمتهم على حقوق الإنسان. ويجب عليهم توفير سبل واضحة لإنصاف المتضررين من التأثيرات المتباينة، ووضع عمليات لإنصاف أي نتائج تمييزية في الوقت المناسب.
في يناير 2020، نشر مركز بيركمان كلاين للإنترنت والمجتمع بجامعة هارفارد دراسة وصفية لـ 36 مجموعة بارزة من مبادئ الذكاء الاصطناعي، حددت ثمانية مواضيع رئيسية: الخصوصية، والمساءلة، والسلامة والأمن، والشفافية وقابلية التفسير ، والعدالة وعدم التمييز. السيطرة البشرية على التكنولوجيا، والمسؤولية المهنية، وتعزيز القيم الإنسانية.[28] وأجريت دراسة وصفية مماثلة من قبل باحثين من المعهد الفيدرالي السويسري للتكنولوجيا في زيورخ في عام 2019.[29]
المناهج
عدلكانت هناك عدة محاولات لجعل الأخلاق قابلة للحساب، أو على الأقل رسمية . في حين أن قوانين الروبوتات الثلاثة لإسحق عظيموف لا تعتبر عادةً مناسبة للفاعل الأخلاقي الاصطناعي،[30] فقد تمت دراسة ما إذا كان من الممكن استخدام الأمر المطلق عند KANT.[31] ومع ذلك، فقد تمت الإشارة إلى أن القيمة الإنسانية معقدة للغاية في بعض الجوانب.[32] إحدى الطرق للتغلب على هذه الصعوبة بشكل صريح هي تلقي القيم الإنسانية مباشرة من البشر من خلال بعض الآليات، على سبيل المثال من خلال تعلمها.[33][34][35]
هناك نهج آخر يتمثل في بناء الاعتبارات الأخلاقية الحالية على مواقف مماثلة سابقة. وهذا ما يسمى بالقضايا القضائية ، ويمكن تنفيذه من خلال البحث على الإنترنت. إن الإجماع من مليون قرار سابق من شأنه أن يؤدي إلى قرار جديد يعتمد على الديمقراطية.[8] بنى البروفيسور بروس إم ماكلارين نموذجًا حسابيًا مبكرًا (منتصف التسعينيات) لعلم الإفتاء، وتحديدًا برنامج يسمى SIROCCO تم تصميمه باستخدام الذكاء الاصطناعي وتقنيات الاستدلال المستندة إلى الحالة التي تسترجع المعضلات الأخلاقية وتحللها.[36] ومع ذلك، يمكن أن يؤدي هذا النهج إلى قرارات تعكس التحيزات والسلوكيات غير الأخلاقية التي تظهر في المجتمع. يمكن رؤية الآثار السلبية لهذا النهج في برنامج Tay (bot) من Microsoft، حيث تعلم برنامج chatterbot تكرار الرسائل العنصرية والمشحونة جنسيًا التي يرسلها مستخدمو Twitter.[37]
تركز إحدى التجارب الفكرية على الجني جوليم الذي يتمتع بقوى غير محدودة يقدم نفسه للقارئ. يعلن هذا الجني أنه سيعود بعد 50 عامًا ويطالب بتزويده بمجموعة محددة من الأخلاق التي سيتصرف بناءً عليها فورًا. الغرض من هذه التجربة هو بدء حوار حول أفضل السبل للتعامل مع تحديد مجموعة كاملة من الأخلاقيات التي قد تفهمها أجهزة الكمبيوتر.[38]
في الخيال
عدلفي الخيال العلمي ، لعبت الأفلام والروايات على فكرة الوعي في الروبوتات والآلات. نفذ فيلم شاباي (2015) للمخرج نيل بلومكامب سيناريو القدرة على نقل وعي الفرد إلى جهاز كمبيوتر.[39] الفيلم، Ex Machina (2014) للمخرج Alex Garland ، يتبع إنسانًا آليًا مزودًا بذكاء اصطناعي يخضع لمجموعة متنوعة من اختبار تورنغ ، وهو اختبار يتم إجراؤه على آلة لمعرفة ما إذا كان من الممكن تمييز سلوكها عن سلوك الإنسان. تتضمن أعمال مثل The Terminator (1984) وThe Matrix (1999) مفهوم الآلات التي تنقلب على أسيادها من البشر (انظر الذكاء الاصطناعي ).
تناول إسحق عظيموف هذه القضية في الخمسينيات من القرن الماضي في كتابه "أنا روبوت" . وبإصرار من محرره جون دبليو كامبل جونيور ، اقترح القوانين الثلاثة للروبوتات للتحكم في أنظمة الذكاء الاصطناعي. ثم قضى الكثير من عمله في اختبار حدود قوانينه الثلاثة لمعرفة أين يمكن أن تنهار، أو أين ستخلق سلوكًا متناقضًا أو غير متوقع. يشير عمله إلى أنه لا توجد مجموعة من القوانين الثابتة يمكنها توقع جميع الظروف المحتملة بشكل كافٍ.[40] في رواية فيليب ك. ديك ، هل تحلم الروبوتات بخرفان آلية؟ (1968)، يستكشف ما يعنيه أن تكون إنسانًا. وفي سيناريو ما بعد نهاية العالم، تساءل عما إذا كان التعاطف سمة إنسانية تمامًا. قصته هي أساس فيلم الخيال العلمي Blade Runner (1982).
المراجع
عدل- ^ Moor، J.H. (2006). "The Nature, Importance, and Difficulty of Machine Ethics". IEEE Intelligent Systems. ج. 21 ع. 4: 18–21. DOI:10.1109/MIS.2006.80. S2CID:831873.
- ^ Boyles، Robert James (1 يونيو 2018). "A Case for Machine Ethics in Modeling Human-Level Intelligent Agents". Kritike: An Online Journal of Philosophy. ج. 12 ع. 1: 182–200. DOI:10.25138/12.1.a9. ISSN:1908-7330. مؤرشف من الأصل في 2023-12-03.
- ^ Waldrop, M. Mitchell (15 Mar 1987). "A Question of Responsibility". AI Magazine (بالإنجليزية). 8 (1): 28–28. DOI:10.1609/aimag.v8i1.572. ISSN:2371-9621. Archived from the original on 2023-12-03.
- ^ Anderson، Michael؛ Anderson، Susan Leigh (14 فبراير 2007). "The status of machine ethics: a report from the AAAI Symposium". Minds and Machines. ج. 17 ع. 1: 1–10. DOI:10.1007/s11023-007-9053-7. ISSN:0924-6495. مؤرشف من الأصل في 2023-12-03.
- ^ Hamilton، Carol (30 يونيو 2013). "AAAI Organization". Proceedings of the AAAI Conference on Artificial Intelligence. ج. 27 ع. 1: xxi–xxiii. DOI:10.1609/aaai.v27i1.8508. ISSN:2374-3468. مؤرشف من الأصل في 2023-12-03.
- ^ Das Gollapalli، Sujatha؛ Caragea، Cornelia (21 يونيو 2014). "Extracting Keyphrases from Research Papers Using Citation Networks". Proceedings of the AAAI Conference on Artificial Intelligence. ج. 28 ع. 1. DOI:10.1609/aaai.v28i1.8946. ISSN:2374-3468. مؤرشف من الأصل في 2023-12-03.
- ^ "Papers from the 2005 AAAI Fall Symposium". مؤرشف من الأصل في 2014-11-29.
- ^ ا ب Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4). نسخة محفوظة 2023-06-01 على موقع واي باك مشين.
- ^ Wallach، Wendell؛ Allen، Colin (2009). Moral machines : teaching robots right from wrong. Oxford University Press. ISBN:9780195374049.
- ^ Anderson، Michael؛ Anderson، Susan Leigh، المحررون (يوليو–أغسطس 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems. ج. 21 ع. 4: 10–63. DOI:10.1109/mis.2006.70. ISSN:1541-1672. S2CID:9570832. مؤرشف من الأصل في 2011-11-26.
- ^ Siler، Cory (2015). "Review of Anderson and Anderson's Machine Ethics". Artificial Intelligence. ج. 229: 200–201. DOI:10.1016/j.artint.2015.08.013. S2CID:5613776.
- ^ Tucker، Patrick (13 مايو 2014). "Now The Military Is Going To Build Robots That Have Morals". Defense One. مؤرشف من الأصل في 2023-03-07. اطلع عليه بتاريخ 2014-07-09.
- ^ "Best Selling Science Books". New York Times. 8 سبتمبر 2014. اطلع عليه بتاريخ 2014-11-09.
- ^ "European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics". European Commission. مؤرشف من الأصل في 2023-12-03. اطلع عليه بتاريخ 2017-01-12.
- ^ Wakefield، Jane (12 يناير 2017). "MEPs vote on robots' legal status – and if a kill switch is required". BBC News. مؤرشف من الأصل في 2023-07-11. اطلع عليه بتاريخ 2017-01-12.
- ^ "European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics". European Parliament. مؤرشف من الأصل في 2023-10-04. اطلع عليه بتاريخ 2019-11-08.
- ^ Alan Winfield, Katina Michael, Jeremy Pitt and Vanessa Evers (مارس 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems". Proceedings of the IEEE. ج. 107 ع. 3: 501–615. DOI:10.1109/JPROC.2019.2898289. مؤرشف من الأصل في 2023-04-25.
{{استشهاد بدورية محكمة}}
: صيانة الاستشهاد: أسماء متعددة: قائمة المؤلفين (link) صيانة الاستشهاد: التاريخ والسنة (link) - ^ "Proceedings of the IEEE Addresses Machine Ethics". IEEE Standards Association. مؤرشف من الأصل في 2023-08-06.
- ^ Moor، James M. (2009). "Four Kinds of Ethical Robots". Philosophy Now. مؤرشف من الأصل في 2023-06-04.
- ^ Nath, R., Sahu, V. The problem of machine ethics in artificial intelligence. AI & Soc 35, 103–111 (2020). https://doi.org/10.1007/s00146-017-0768-6 نسخة محفوظة 2023-05-21 على موقع واي باك مشين.
- ^ Bostrom، Nick (2014). Superintelligence: Paths, Dangers, Strategies (ط. First). ISBN:978-0199678112.
- ^ ا ب Crawford، Kate (25 يونيو 2016). "Artificial Intelligence's White Guy Problem". The New York Times.
- ^ ا ب ج Julia Angwin؛ Surya Mattu؛ Jeff Larson؛ Lauren Kircher (23 مايو 2016). "Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks". ProPublica. مؤرشف من الأصل في 2023-08-02.
- ^ Thomas, C.; Nunez, A. (2022). "Automating Judicial Discretion: How Algorithmic Risk Assessments in Pretrial Adjudications Violate Equal Protection Rights on the Basis of Race". Law & Inequality (بالإنجليزية). 40 (2): 371–407. DOI:10.24926/25730037.649. Archived from the original on 2023-10-19.
- ^ Executive Office of the President (مايو 2016). "Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights" (PDF). Obama White House. مؤرشف من الأصل (PDF) في 2023-12-03.
- ^ "Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights". Obama White House. 4 مايو 2016. مؤرشف من الأصل في 2023-06-16.
- ^ ا ب "How to Prevent Discriminatory Outcomes in Machine Learning". World Economic Forum. 12 مارس 2018. مؤرشف من الأصل في 2023-11-19. اطلع عليه بتاريخ 2018-12-11.
- ^ Fjeld، Jessica؛ Achten، Nele؛ Hilligoss، Hannah؛ Nagy، Adam؛ Srikumar، Madhulika (2020). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI". SSRN Working Paper Series. DOI:10.2139/ssrn.3518482. ISSN:1556-5068. S2CID:214464355. مؤرشف من الأصل في 2023-12-03.
- ^ Jobin، Anna؛ Ienca، Marcello؛ Vayena، Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. ج. 1 ع. 9: 389–399. arXiv:1906.11668. DOI:10.1038/s42256-019-0088-2. ISSN:2522-5839. S2CID:201827642.
- ^ Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296. (ردمك 9780511978036)
- ^ Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475. نسخة محفوظة 2023-12-03 على موقع واي باك مشين.
- ^ Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics. نسخة محفوظة 2023-12-10 على موقع واي باك مشين.
- ^ Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition. نسخة محفوظة 2023-12-10 على موقع واي باك مشين.
- ^ Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334. نسخة محفوظة 2023-12-03 على موقع واي باك مشين.
- ^ Hibbard، Bill (2014). "Ethical Artificial Intelligence". arXiv:1411.1373 [cs.AI].
{{استشهاد بأرخايف}}
: الوسيط|arxiv=
مطلوب (مساعدة) - ^ McLaren، Bruce M. (2003). "Extensionally defining principles and cases in ethics: An AI model". Artificial Intelligence. ج. 150 ع. 1–2: 145–181. DOI:10.1016/S0004-3702(03)00135-8. S2CID:11588399. مؤرشف من الأصل في 2023-12-03.
- ^ Wakefield، Jane (24 مارس 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. مؤرشف من الأصل في 2023-11-17. اطلع عليه بتاريخ 2016-04-17.
- ^ Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
- ^ Brundage، Miles؛ Winterton، Jamie (17 مارس 2015). "Chappie and the Future of Moral Machines". Slate. مؤرشف من الأصل في 2023-12-03. اطلع عليه بتاريخ 2019-10-30.
- ^ Asimov، Isaac (2008). I, robot. New York: Bantam. ISBN:978-0-553-38256-3.