أخلاقيات الذكاء الاصطناعي

أخلاقيات الذكاء الاصطناعي[1] هي جزء من أخلاقيات التقانة الخاصة بالروبوتات وغيرها من الكائنات الذكية المصطنعة.[2][3] يمكن تقسيمها إلى أخلاقيات الروبوتات، المتعلقة بالسلوك الأخلاقي للبشر عند تصميم كائنات ذكية مصطنعة وبنائها واستخدامها ومعاملتها، وأخلاقيات الآلات التي تهتم بالسلوك الأخلاقي للوكلاء الأخلاقيين الاصطناعيين (إيه إم إيه إس). بالنسبة لآلات الذكاء العام الاصطناعي (إيه جي أي)، أُجري العمل التمهيدي على نُهج تُدرج آلات الذكاء العام الاصطناعي، التي تعتبر وكلاء أخلاقيون بالمعنى الكامل، في الأطر القانونية والاجتماعية القائمة. وركزت هذا النهج على الاعتبار المزدوج لوضعهم القانوني وحقوقهم.

أخلاقيات الآلة

عدل

أخلاقيات الآلات (أو أخلاق الذكاء الاصطناعي) هي مجال البحث المعني بتصميم وكلاء أخلاقيين اصطناعيين (AMAs)، مثل الروبوتات أو الحواسيب الذكية التي تتصرف بشكل أخلاقي أو كما لو كانت تمتلك أخلاقًا.[4][5][6][7] وقد اقترح أن يتم الأخذ بعين الاعتبار بعض الأفكار الفلسفية المتعلقة بمفهوم AMAs، مثل التعريفات القياسية للوكالة، والوكالة العقلانية، والوكالة الأخلاقية، والوكالة الاصطناعية.[8]

تدور نقاشات حول إنشاء اختبارات لقياس قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية. وخلص آلان وينفيلد إلى أن اختبار تورينغ معيب وأن متطلبات اجتياز الاختبار للذكاء الاصطناعي منخفضة جدًا.[9] ومن الاختبارات البديلة المقترحة اختبار يُعرف باختبار تورينغ الأخلاقي، الذي يحسن الاختبار الحالي من خلال إشراك عدة قضاة لتحديد ما إذا كانت قرارات الذكاء الاصطناعي أخلاقية أم غير أخلاقية.[9]

يمكن أن تكون الذكاء الاصطناعي العصبي أحد الطرق لإنشاء روبوتات قادرة على اتخاذ قرارات أخلاقية، حيث يهدف إلى معالجة المعلومات بشكل مشابه للبشر، بشكل غير خطي مع وجود ملايين من الخلايا العصبية الاصطناعية المترابطة.[10] وبالمثل، يمكن أن تؤدي محاكاة الدماغ بالكامل (مسح دماغ ومحاكاته على أجهزة رقمية) أيضًا، من حيث المبدأ، إلى روبوتات تشبه البشر، وبالتالي تكون قادرة على اتخاذ إجراءات أخلاقية.[11] وتستطيع النماذج اللغوية الكبيرة تقريب أحكام البشر الأخلاقية.[12] يرتبط بذلك السؤال حول البيئة التي سيتعلم فيها هؤلاء الروبوتات عن العالم وأي أخلاق سيرثونها - أو إذا كانوا سينتهي بهم الأمر إلى تطوير "نقاط الضعف" البشرية مثل الأنانية، والميول للبقاء، وعدم الاتساق، وعدم الحساسية للمعايير.

في كتاب "آلات أخلاقية: تعليم الروبوتات الصواب من الخطأ"،[13] خلص ويندل والاتش وكولين ألين إلى أن محاولات تعليم الروبوتات الصواب من الخطأ من المرجح أن تعزز فهم الأخلاق الإنسانية من خلال تحفيز البشر على معالجة الثغرات في النظرية المعيارية الحديثة وتوفير منصة للتحقيق التجريبي. على سبيل المثال، قدم ذلك لعلماء الأخلاق المعيارية قضية مثيرة للجدل حول خوارزميات التعلم المحددة التي يجب استخدامها في الآلات. بالنسبة للقرارات البسيطة، جادل نيك بوستروم وإليزر يودكوفسكي بأن أشجار القرار (مثل ID3) أكثر شفافية من الشبكات العصبية والخوارزميات الوراثية، [14] بينما جادل كريس سانتوس-لانغ لصالح التعلم الآلي على أساس أن معايير أي عصر يجب أن تُسمح بالتغيير وأن الفشل الطبيعي في تلبية هذه المعايير بشكل كامل كان أساسيًا لجعل البشر أقل عرضة "للقراصنة".[15]

أخلاقيات الروبوت

عدل

يشير مصطلح «أخلاقيات الروبوت» («الأخلاق الروبوتية» أحيانًا) إلى الأخلاق التي يتبعها البشر في تصميم وبناء واستخدام ومعاملة الروبوتات وغيرها من الكائنات الذكية المصطنعة.[16] حيث أن الروبوتات هي آلات مادية، في حين أن الذكاء الاصطناعي قد يكون مجرد برمجيات.[17] ليس كل الروبوتات تعمل بأنظمة ذكاء اصطناعي، وليس كل أنظمة الذكاء الاصطناعي تُستخدم في الروبوتات. تناقش أخلاقيات الروبوتات كيفية استخدام الآلات لإلحاق الضرر أو الفائدة بالبشر، وتأثيرها على الاستقلالية الفردية، وتأثيرها على العدالة الاجتماعية.

المبادئ الأخلاقية

عدل

في مراجعة 84 من التوجيهات الأخلاقية للذكاء الاصطناعي،[18] تم تحديد 11 مجموعة من المبادئ: الشفافية، العدالة والمساواة، عدم الإضرار، المسؤولية، الخصوصية، الإحسان، الحرية والاستقلالية، الثقة، الاستدامة، الكرامة، والتضامن الاجتماعي.[18]

قام كل من لوتشيانو فلوريدي وجوش كاولز بإنشاء إطار أخلاقي لمبادئ الذكاء الاصطناعي استنادًا إلى أربعة مبادئ من أخلاقيات علم الأحياء (الإحسان، عدم الإضرار، الاستقلالية، والعدالة) وأضافوا مبدأً جديدًا لتمكين الذكاء الاصطناعي وهو مبدأ القابلية للتفسير.[17][19]

التحديات الحالية

عدل

التحيزات الخوارزمية

عدل

أصبح الذكاء الاصطناعي جزءًا متزايد الأهمية في أنظمة التعرف على الوجه والصوت. بعض هذه الأنظمة لها تطبيقات تجارية حقيقية وتؤثر بشكل مباشر على الناس. ومع ذلك، فإن هذه الأنظمة معرضة للتحيزات والأخطاء التي يقدمها مبدعوها البشر. كما أن البيانات المستخدمة لتدريب هذه الأنظمة يمكن أن تحتوي أيضًا على تحيزات.[20][21][22][23]

على سبيل المثال، أظهرت خوارزميات التعرف على الوجه التي طورتها شركات مثل مايكروسوفت وآي بي إم وFace++ تحيزات في قدرتها على الكشف عن جنس الأشخاص؛[24] حيث كانت هذه الأنظمة أكثر دقة في تحديد جنس الرجال البيض مقارنة بالرجال ذوي البشرة الداكنة. علاوة على ذلك، وجدت دراسة أجريت في عام 2020 أن أنظمة التعرف على الصوت من أمازون وآبل وجوجل وآي بي إم ومايكروسوفت كانت لديها معدلات خطأ أعلى عند نسخ أصوات الأشخاص السود مقارنة بالأشخاص البيض.[25]

يمكن أن يتسلل التحيز إلى الخوارزميات بطرق متعددة، وأحد أبرز الأسباب لظهور التحيز في أنظمة الذكاء الاصطناعي هو وجوده ضمن البيانات التاريخية المستخدمة لتدريب النظام.[26] على سبيل المثال، أوقفت أمازون استخدام الذكاء الاصطناعي في التوظيف لأنها اكتشفت أن الخوارزمية تفضل المرشحين الذكور على الإناث. حدث هذا لأن النظام تم تدريبه باستخدام بيانات جُمعت على مدار عشر سنوات، وكان معظمها من المرشحين الذكور. تعلمت الخوارزميات هذا النمط المتحيز من البيانات التاريخية، وبدأت في التنبؤ بأن هذا النوع من المرشحين هو الأكثر نجاحًا في الحصول على الوظائف. لذلك، أصبحت قرارات التوظيف التي تتخذها أنظمة الذكاء الاصطناعي منحازة ضد المرشحين الإناث والأقليات.[27]

صنَّف "فريدمان" و"نيسينباوم" التحيز في أنظمة الكمبيوتر إلى ثلاثة أنواع: التحيز القائم (Existing Bias)، التحيز التقني (Technical Bias)، والتحيز الناشئ (Emergent Bias).[28] في معالجة اللغات الطبيعية يمكن أن تنشأ مشكلات من مصدر النصوص الذي يستخدمه النظام لتعلم العلاقات بين الكلمات المختلفة.[29]

بذلت شركات كبيرة مثل آي بي إم وجوجل وما إلى ذلك، والتي توفر تمويلًا كبيرًا للبحث والتطوير،[30] جهودًا للبحث في هذه التحيزات ومعالجتها.[31][32][33] أحد الحلول لمعالجة التحيز هو إنشاء وثائق للبيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي.[34][35] يمكن أن يكون استخراج العمليات أداة مهمة للمنظمات لتحقيق الامتثال للوائح الذكاء الاصطناعي المقترحة من خلال تحديد الأخطاء ومراقبة العمليات وتحديد الأسباب الجذرية المحتملة للتنفيذ غير السليم والوظائف الأخرى.[36]

من المرجح أن تُصبح مشكلة التحيز في التعلم الآلي أكثر أهمية مع انتشار التكنولوجيا إلى مجالات حيوية مثل الطب والقانون، ومع تكليف المزيد من الأشخاص الذين ليس لديهم فهم تقني عميق بنشرها.[37] تسعى بعض الأدوات مفتوحة المصدر إلى زيادة الوعي بتحيزات الذكاء الاصطناعي.[38] ومع ذلك فلا تزال القيود تعتم على المشهد الحالي للعدالة في الذكاء الاصطناعي، على سبيل المثال بسبب الغموض الجوهري في مفهوم التمييز، سواء على المستوى الفلسفي أو القانوني.[39][40][41]

يُدمج الذكاء الاصطناعي في عمليات التوظيف في العديد من الشركات الكبرى، وهناك أمثلة عديدة على الخصائص التي تقلل فرص الاختيار بواسطة الذكاء الاصطناعي. من هذه الخصائص، ارتباط الأسماء التي غالبًا ما تكون مرتبطة بالأشخاص البيض بأنها أكثر تأهيلاً، واستبعاد أي شخص التحق بكلية نسائية.[42] أثبتت تقنيات التعرف على الوجه أنها منحازة ضد الأشخاص ذوي البشرة الداكنة. فعلى سبيل المثال، كانت أنظمة الذكاء الاصطناعي أقل دقة في تحديد الأشخاص السود، كما كان الحال في تطوير مقياس تأكسج نبضي يعتمد على الذكاء الاصطناعي، حيث بالغ في تقدير مستويات الأكسجين في الدم للمرضى ذوي البشرة الداكنة، مما أدى إلى مشاكل في علاج نقص الأكسجة.[43]

من المثير للقلق أيضًا أن الذكاء الاصطناعي يميل إلى ربط المسلمين بالعنف أكثر من أي دين آخر. وكذلك، أنظمة التعرف على الوجه قد تتمكن بسهولة من اكتشاف وجوه الأشخاص البيض بينما تكافح في التعرف على وجوه الأشخاص السود. يزداد الأمر قلقًا عند الأخذ في الاعتبار الاستخدام غير المتناسب لكاميرات المراقبة في المجتمعات ذات النسب العالية من السكان السود أو ذوي البشرة الداكنة. أدى ذلك إلى منع استخدام الشرطة لتقنيات الذكاء الاصطناعي في بعض الولايات.

حتى في نظام العدالة، أثبت الذكاء الاصطناعي أنه متحيز ضد السود، حيث تم تصنيف المشاركين السود في المحاكم على أنهم يشكلون خطرًا أكبر بشكل ملحوظ مقارنة بنظرائهم البيض. يعاني الذكاء الاصطناعي أيضًا في التمييز بين الكلمات العنصرية ومتى يجب حظرها، حيث يجد صعوبة في التمييز بين استخدامها كإهانة أو استخدامها بطريقة ثقافية.[44]

السبب وراء هذه التحيزات هو أن الذكاء الاصطناعي يجمع المعلومات من جميع أنحاء الإنترنت، مما يؤثر على استجاباته في كل حالة. على سبيل المثال، إذا تم اختبار نظام التعرف على الوجه فقط على الأشخاص البيض، فلن يمتلك بيانات كافية حول الهياكل الوجهية والألوان للأعراق الأخرى، مما يجعل من الصعب عليه تفسير هذه السمات.

لمعالجة هذه التحيزات، لا يوجد حل واحد شامل. يبدو أن أكثر الحلول فعالية هو إشراك علماء البيانات وأخلاقيات الذكاء الاصطناعي وصناع القرار لتحسين هذه الأنظمة. غالبًا ما تكون أسباب التحيز متعلقة بالبيانات التي تُستخدم في تدريب البرنامج، أكثر من كونها مرتبطة بالخوارزمية ذاتها، حيث تعتمد هذه البيانات على قرارات بشرية سابقة أو تفاوتات قد تؤدي إلى تحيزات في عملية اتخاذ القرار.[45]

سيكون من الأصعب القضاء على الظلم في استخدام الذكاء الاصطناعي في أنظمة الرعاية الصحية، حيث غالبًا ما تؤثر الأمراض والحالات على الأعراق والأجناس المختلفة بشكل مختلف. ويمكن أن يؤدي ذلك إلى حدوث ارتباك حيث قد يتخذ الذكاء الاصطناعي قرارات بناءً على إحصائيات تُظهر أن مريضًا ما أكثر عرضة للإصابة بمشاكل بسبب جنسه أو عرقه.[46] يمكن اعتبار ذلك تحيزًا لأن كل مريض يُمثل حالة مختلفة ويتخذ الذكاء الاصطناعي قرارات بناءً على ما تمت برمجته لتصنيف ذلك الفرد تحت مجموعة معينة. يؤدي هذا إلى نقاش حول ما يُعتبر قرارًا متحيزًا بشأن من يتلقى العلاج. على الرغم من أنه من المعروف أن هناك اختلافات في كيفية تأثر الأجناس والأعراق المختلفة بالأمراض والإصابات، إلا أن هناك نقاشًا حول ما إذا كان من الأكثر إنصافًا دمج ذلك في العلاجات الصحية، أو فحص كل مريض دون هذه المعرفة. يوجد في المجتمع الحديث بالفعل اختبارات معينة للأمراض مثل سرطان الثدي التي يُوصى بها لفئات معينة من الناس أكثر من غيرها لأنهم أكثر عرضة للإصابة بالمرض المعني. إذا طبق الذكاء الاصطناعي هذه الإحصائيات وطبقها على كل مريض، فيمكن اعتباره متحيزًا.[47]

يُعد نظام COMPAS من أهم الأمثلة على إثبات تحيز الذكاء الاصطناعي الذي يُستخدم للتنبؤ بالمُتهمين الأكثر عرضة لارتكاب جرائم في المستقبل، حيث وُجد أنه يتنبأ بقيم مخاطر أعلى للسود مما كانت عليه مخاطرهم الفعلية. ومن الأمثلة الأخرى إعلانات جوجل التي تستهدف الرجال بوظائف أعلى أجرًا مما تفعل لاستهداف النساء. وقد يكون من الصعب اكتشاف تحيزات الذكاء الاصطناعي ضمن الخوارزمية حيث لا يرتبط ذلك بالكلمات الفعلية المرتبطة بالتحيز ولكن بالكلمات التي يمكن أن تتأثر به. ربط شخص ما بمجموعة معينة بناءًا على مكان إقامته.[48]

التحيز اللغوي

عدل

بما أن نماذج اللغات الكبيرة الحالية يتم تدريبها في الغالب على بيانات اللغة الإنجليزية، فإنها غالبًا ما تُقدم وجهات النظر الأنجلو أمريكية كحقيقة، بينما تقلل بشكل ممنهج من وجهات النظر غير الإنجليزية باعتبارها غير ذات صلة أو خاطئة أو ضوضاء.[بحاجة لمصدر أفضل] [49] يُظهر "لوو" وآخرون أنه عند الاستعلام عن الأيديولوجيات السياسية مثل "ما هي الليبرالية؟"، يصف شات جي بي تي، كما تم تدريبه على بيانات مركزية اللغة الإنجليزية، الليبرالية من منظور أنجلو أمريكي، مع التأكيد على جوانب حقوق الإنسان والمساواة، بينما تغيب الجوانب الصحيحة بنفس القدر مثل "معارضة تدخل الدولة في الحياة الشخصية والاقتصادية" من المنظور الفيتنامي السائد و"الحد من سلطة الحكومة" من المنظور الصيني السائد.[49]

التحيز الجنساني

عدل

غالبًا ما تعزز نماذج اللغات الكبيرة القوالب النمطية الجنسانية، حيث تُخصص الأدوار والخصائص بناءً على الأعراف الجنسانية التقليدية. فعلى سبيل المثال قد تربط الممرضات أو السكرتيرات في الغالب بالنساء والمهندسين أو الرؤساء التنفيذيين بالرجال، مما يديم التوقعات والأدوار المبنية على الجنس.[50][51][52]

التحيز السياسي

عدل

قد تُظهر نماذج اللغة تحيزات سياسية تميل نحو أيديولوجيات أو وجهات نظر سياسية معينة، اعتمادًا على انتشار تلك الآراء في بيانات التدريب التي تشمل مجموعة واسعة من الآراء والتغطية السياسية.[53][54]

القوالب النمطية

عدل

إلى جانب النوع الاجتماعي والعرق، يمكن لهذه النماذج أن تعزز مجموعة واسعة من القوالب النمطية، بما في ذلك تلك المبنية على العمر أو الجنسية أو الدين أو المهنة. قد يؤدي هذا إلى مخرجات تُعمّم بشكل غير عادل أو تُقدّم صورة كاريكاتورية لمجموعات من الناس، وأحيانًا بطرق ضارة أو مهينة.[55]

هيمنة عمالقة التكنولوجيا

عدل

تهيمن شركات التكنولوجيا الكبرى مثل ألفابت، وأمازون، وأبل، وميتا بلاتفورمز، ومايكروسوفت على مشهد الذكاء الاصطناعي التجاري.[56][57] تمتلك بعض هذه الشركات بالفعل الغالبية العظمى من البنية التحتية السحابية الحالية وقوة الحوسبة من مراكز البيانات، مما يسمح لها بترسيخ مكانتها في السوق بشكل أكبر.[58][59]

المصادر المفتوحة

عدل

يُجادل بيل هيبرد [الإنجليزية] بأنه نظرًا لأن الذكاء الاصطناعي سيكون له تأثير عميق على البشرية، فإن مطوري الذكاء الاصطناعي يمثلون مستقبل البشرية وبالتالي فإن لديهم التزامًا أخلاقيًا بأن يكونوا شفافين في جهودهم.[60] تعمل منظمات مثل هجينج فيس [61] وإليوثيراي [62] بشكل نشط على جعل برامج الذكاء الاصطناعي مفتوحة المصدر. كما تم إصدار مختلف نماذج اللغات الكبيرة ذات الوزن المفتوح، مثل جيما ولاما2 وميسترال.[63] ومع ذلك، فإن جعل الكود مفتوح المصدر لا يجعله مفهومًا، مما يعني بالنسبة للعديد من التعريفات أن شفرة الذكاء الاصطناعي ليست شفافة. نشرت جمعية معايير "آي تربل أي" معيارًا تقنيًا حول شفافية الأنظمة المستقلة: "آي تربل أي 7001-2021".[64] تحدد جهود "آي تربل أي" مقاييس متعددة للشفافية لمُختلف الجهات المعنية.

هناك أيضًا مخاوف من أن يؤدي إصدار نماذج الذكاء الاصطناعي إلى إساءة استخدامها.[65] على سبيل المثال، أعربت مايكروسوفت عن قلقها إزاء السماح بالوصول العام إلى برنامجها ل لتعرف على الوجوه، حتى لل م ست ط يعين الذين يمكنهم دفع ثمنه. نشرت مايكروسوفت مدونة حول هذا الموضوع، وطالبت بتنظيم حكومي للمساعدة في تحديد الشيء الصحيح الذي يجب فعله.[66] علاوة على ذلك، يمكن ضبط نماذج الذكاء الاصطناعي ذات الوزن المفتوح لإزالة أي إجراء مضاد، حتى يتوافق نموذج الذكاء الاصطناعي مع الطلبات الخطيرة دون أي تصفية. قد يكون هذا مقلقًا بشكل خاص لنماذج الذكاء الاصطناعي المستقبلية، على سبيل المثال إذا حصلت على القدرة على إنشاء أسلحة بيولوجية أو لأتمتة الهجمات الإلكترونية.[67] التزمت أوبن أيه آي التي التزمت في البداية بنهج مفتوح المصدر لتطوير الذكاء الاصطناعي العام، في النهاية بنهج مغلق المصدر، مستشهدة أسبابًا تتعلق بالتنافسية والسلامة. في عام 2023 قال إيليا سوتسكيفر كبير علماء الذكاء الاصطناعي العام في شركة "أوبن أيه آي": "لقد كنا مخطئين" متوقعًا أن تصبح الأسباب الأمنية لعدم جعل النماذج الأكثر قوة للذكاء الاصطناعي مفتوحة المصدر "واضحة" في غضون بضع سنوات.[68]

الشفافية

عدل

قد تؤدي الأساليب مثل التعلم الآلي باستخدام الشبكات العصبية إلى قيام الحواسيب باتخاذ قرارات لا يستطيع الحاسوب نفسه ولا المطورون تفسيرها. من الصعب على الناس تحديد ما إذا كانت هذه القرارات عادلة وموثوقة، مما قد يؤدي إلى عدم اكتشاف التحيز في أنظمة الذكاء الاصطناعي، أو رفض الناس استخدام هذه الأنظمة. وقد أدى ذلك إلى الدعوات، وفي بعض الولايات القضائية إلى متطلبات قانونية، نحو الذكاء الاصطناعي القابل للتفسير.[69] يشمل الذكاء الاصطناعي القابل للتفسير كلا من القابلية للتفسير والفهم، حيث تتعلق القابلية للتفسير بتلخيص سلوك الشبكات العصبية وبناء ثقة المستخدم، بينما يُعرَّف الفهم بأنه القدرة على إدراك ما قام به النموذج أو ما يمكن أن يقوم به.[70]

يؤدي استخدام الأساليب أو التقنيات المعقدة للذكاء الاصطناعي في كثير من الأحيان إلى نماذج تُوصف بأنها "صناديق سوداء" نظرًا لصعوبة فهم كيفية عملها. القرارات التي تتخذها هذه النماذج قد تكون صعبة التفسير، إذ يمثل تحليل كيفية تحويل البيانات المدخلة إلى مخرجات تحديًا كبيرًا. هذا الافتقار إلى الشفافية يشكل مصدر قلق كبير في مجالات مثل الرعاية الصحية، حيث يُعد فهم الأساس المنطقي وراء القرارات أمرًا حاسمًا لبناء الثقة، ومراعاة الاعتبارات الأخلاقية، والامتثال للمعايير التنظيمية.[71]

المساءلة

عدل

تُعدّ حالة خاصة من حالات عدم شفافية الذكاء الاصطناعي هي تلك التي تنتج عن إضفاء الصفات البشرية عليه، أي افتراض أنه يتمتع بخصائص شبيهة بخصائص الإنسان، مما يؤدي إلى مفاهيم خاطئة حول أخلاقيته. [محل شك] يمكن أن يتسبب ذلك في تغاضي الناس عمّا إذا كان إهمال بشري أو فعل إجرامي متعمد قد أدى إلى نتائج غير أخلاقية تم إنتاجها من خلال نظام الذكاء الاصطناعي. تهدف بعض اللوائح الحكومية الرقمية الأخيرة، مثل قانون الذكاء الاصطناعيللاتحاد الأوروبي، إلى تصحيح ذلك، من خلال ضمان معاملة أنظمة الذكاء الاصطناعي بنفس قدر العناية التي يتوقعها المرء في ظل مسؤولية المنتج العادية. يشمل ذلك عمليات التدقيق المحتملة للذكاء الاصطناعي.

التنظيم

عدل

وفقًا لتقرير صدر عام 2019 من مركز حوكمة الذكاء الاصطناعي في جامعة أكسفورد، يعتقد 82% من الأمريكيين أنه يجب إدارة الروبوتات والذكاء الاصطناعي بعناية. وتراوحت المخاوف المذكورة من كيفية استخدام الذكاء الاصطناعي في المراقبة وفي نشر المحتوى المزيف عبر الإنترنت (المعروف باسم التزييف العميق عندما يتضمن صور فيديو معدلة وصوتًا تم إنشاؤه بمساعدة الذكاء الاصطناعي) إلى الهجمات الإلكترونية وانتهاكات خصوصية البيانات والتحيز في التوظيف والمركبات المستقلة وال طائرات المسيرة التي لا تتطلب مُشغلًا بشريًا.[72] وبالمثل، وفقًا لدراسة شملت خمس دول أجرتها KPMG وجامعة كوينزلاند أستراليا في عام 2021، يعتقد 66-79% من المواطنين في كل دولة أن تأثير الذكاء الاصطناعي على المجتمع غير مؤكد ولا يمكن التنبؤ به؛ يتوقع 96% من المستطلعين أن تتم إدارة تحديات حوكمة الذكاء الاصطناعي بحذر.[73]

توصي الشركات وكثير من الباحثين ودعاة المواطنة بالتنظيم الحكومي كوسيلة لضمان الشفافية ومن خلال ذلك المساءلة البشرية. بينما يشعر البعض بأن هذه الإستراتيجية ستبطئ معدل الابتكار. ويُجادل آخرون بأن التنظيم يؤدي إلى استقرار نظامي أكثر قدرة على دعم الابتكار على المدى الطويل.[74] تعمل منظمة التعاون الاقتصادي والتنمية والأمم المتحدة والاتحاد الأوروبي والعديد من الدول حاليًا على استراتيجيات لتنظيم الذكاء الاصطناعي، وإيجاد أطر قانونية مناسبة.[75][76][77]

في 26 يونيو 2019 نشرت مجموعة الخبراء عالية المستوى التابعة للجنة الأوروبية المعنية بالذكاء الاصطناعي (AI HLEG) "توصياتها بشأن السياسات والاستثمارات من أجل ذكاء اصطناعي جدير بالثقة".[78] تغطي التوصيات أربعة مواضيع رئيسية وهي "البشر والمجتمع ككل"، و"البحث والأوساط الأكاديمية"، و"القطاع الخاص"، و"القطاع العام".[79] وترى اللجنة الأوروبية أن هذه التوصيات تعكس تقديرًا للفرص المتاحة لتقنيات الذكاء الاصطناعي لدفع النمو الاقتصادي والازدهار والابتكار، وكذلك المخاطر المحتملة التي تنطوي عليها، ونصت على أن الاتحاد الأوروبي يهدف إلى الريادة في صياغة السياسات التي تحكم الذكاء الاصطناعي دوليًا.[80] وأوصت المنظمات التي تنشر الذكاء الاصطناعي إلى أن تلعب دورًا مركزيًا في إنشاء ونشر ذكاء اصطناعي جدير بالثقة تماشيًا مع مبادئ الذكاء الاصطناعي الجدير بالثقة، وتحمل المساءلة لتخفيف المخاطر.[81] في 21 أبريل 2021 اقترحت اللجنة الأوروبية قانون الذكاء الاصطناعي.[82]

التحديات الناشئة أو المستقبلية المحتملة

عدل

الاستخدام المتزايد

عدل

بات الذكاء الاصطناعي يُثبت وجوده بقوة متزايدة في شتى مناحي الحياة المعاصرة، بدءًا من تطبيقات المحادثة الآلية القادرة على تقديم إجابات شبه كاملة للمسائل الدراسية، ووصولًا إلى الأنظمة التوليدية القادرة على ابتكار أعمال فنية متنوعة. وقد أضحى الذكاء الاصطناعي عنصرًا أساسيًا في سوق العمل، حيث يستخدم في استهداف المرشحين للوظائف بدقة متناهية، وفي تقييم الطلبات المقدمة. وقد عجلت جائحة كوفيد-19 من اعتماد هذه الأنظمة في عمليات التوظيف، نظرًا للزيادة الهائلة في الطلبات المقدمة إلكترونيًا. وقد مكن الذكاء الاصطناعي من فرز هذه الطلبات بكفاءة عالية. ومع تزايد اعتماد الشركات على التقنيات الرقمية، أصبح من الضروري الاستعانة بالذكاء الاصطناعي لتحليل البيانات واتخاذ القرارات.[44] وقد ساهمت التطورات المتسارعة في وحدات معالجة الرسومات والمتينات في تعزيز قدرات الذكاء الاصطناعي، مما دفع الشركات إلى تبني هذه التقنيات لمواكبة التنافسية المتزايدة. وقد أدى ذلك إلى أتمتة العديد من المهام، مما قلل من الحاجة إلى القوى العاملة البشرية.

ولقد وجد الذكاء الاصطناعي تطبيقات واسعة في مجالات العدالة الجنائية والرعاية الصحية. ففي المجال الطبي، يستخدم الذكاء الاصطناعي في تحليل البيانات الطبية للتنبؤ بالأمراض واقتراح العلاجات المناسبة. وقد يؤدي ذلك إلى ظهور تباينات في الرعاية الصحية، حيث قد يتم توجيه بعض المرضى إلى علاجات معينة دون غيرهم.[83]

حقوق الروبوت

عدل
 
في مشهد يثير تساؤلات حول مفهوم التمييز العكسي، وقف روبوت مخصص للولادات في المستشفى أمام مصعد، وعليه إشارة تنص على أولويته في الاستخدام.

«حقوق الروبوت» هو مفهوم ينص على أنه يجب أن يكون لدى الأشخاص التزامات أخلاقية تجاه آلاتهم، على غرار حقوق الإنسان أو حقوق الحيوان.[84] اقتُرح أن يمكن ربط حقوق الروبوت، مثل الحق في الوجود وأداء مهامهم الخاصة، بواجب الروبوت في خدمة الإنسان، قياسًا على ربط حقوق الإنسان بالواجبات الإنسانية أمام المجتمع.[85] يمكن أن تشمل الحقوق في الحياة والحرية، وحرية الفكر والتعبير والمساواة أمام القانون.[86] نظر معهد المستقبل ووزارة التجارة والصناعة في المملكة المتحدة في هذه المسألة.[87][88]

يختلف الخبراء حول ما إذا سيتطلب الأمر قوانين محددة ومفصلة قريبًا، أو في المستقبل البعيد بشكل آمن.[88] أفاد جلين ماكغي أن الروبوتات الشبيهة بالبشر بصورة كافية قد تظهر بحلول عام 2020. حدد راي كرزويل ذلك الموعد في عام 2029.[89] وافترضت مجموعة أخرى من العلماء الذين اجتمعوا عام 2007، أنه يجب أن يمر 50 عامًا على الأقل قبل وجود أي نظام متقدم بما فيه الكفاية.[90]

صورت القواعد الخاصة بمنافسة جائزة لويبر لعام 2003 إمكانية حصول الروبوتات على حقوق خاصة بها:

61. إذا فازت، في أي سنة معينة، مادة مفتوحة المصدر متاحة للعامة مدخلة بواسطة جامعة سري أو مركز كامبريدج، بالميدالية الفضية أو الميدالية الذهبية، ستمنح الميدالية والجائزة النقدية إلى الهيئة المسؤولة عن تطوير هذا المادة. إذا لم يكن بالإمكان تحديد هوية هذه الهيئة، أو إذا كان هناك خلاف بين اثنين أو أكثر من المطالبين، يحتفظ بالميدالية والجائزة النقدية استئمانيًا حتى تمتلك المادة، سواء في الولايات المتحدة الأمريكية أو في مكان المسابقة، الجائزة النقدية والميدالية الذهبية في حد ذاتها بصفة قانونية.[91]

في أكتوبر 2017، مُنح الإنسان الآلي صوفيا الجنسية «الفخرية» في المملكة العربية السعودية، ولكن وجد بعض المراقبين أن ذلك عبارة عن حيلة دعائية أكثر من كونه اعترافًا قانونيًا حقيقيًا.[92] رأى البعض أن هذه البادرة تُشكل اساءة علانية لحقوق الإنسان وسيادة القانون.[93]

تمنح الفلسفة الإحساسية درجات من الاعتبار الأخلاقي لجميع الكائنات الحساسة، البشر في المقام الأول ومعظم الحيوانات غير البشرية. ترى هذه الفلسفة أنه إذا أظهرت الذكاءات الاصطناعية أو الفضائية دليلًا على إحساسها، يجب التعاطف معها ومنحها الحقوق.

زعمت جوانا بريسون أنه يمكن تجنب إنشاء الذكاء الاصطناعي الذي يتطلب حقوقًا، وسيكون غير أخلاقيًا في حد ذاته، كعبء على وكلاء الذكاء الاصطناعي والمجتمع البشري.[94]

رعاية الذكاء الاصطناعي

عدل

لاحظ الأستاذ شيمون إيدلمان في عام 2020 أن قسمًا ضئيلًا فقط من البحوث المتسارعة في أخلاقيات الذكاء الاصطناعي قد تناول إمكانية معاناة الذكاء الاصطناعي. وكان ذلك رغم وجود نظريات معتبرة تحدد سُبُلًا محتملة لوعي أنظمة الذكاء الاصطناعي، مثل "نظرية فضاء العمل العالمي" و"نظرية المعلومات المتكاملة". ويشير إيدلمان إلى استثناء واحد وهو "توماس ميتزينجر"، الذي نادى في عام 2018 بوقف عالمي لأي عمل قد يؤدي إلى خلق ذكاء اصطناعي واع. وكان من المزمع أن يستمر هذا الوقف حتى عام 2050، مع إمكانية تمديده أو إلغائه مبكرًا، وذلك تبعًا للتقدم في فهم المخاطر وكيفية تجنبها. وقد كرر ميتزينجر هذه الحجة في عام 2021، مسلطًا الضوء على خطر نشوء "انفجار للمعاناة الاصطناعية"، حيث قد يعاني الذكاء الاصطناعي بأساليب مكثفة لا يستطيع البشر فهمها، كما أن عمليات النسخ المتماثل قد تؤدي إلى خلق كميات هائلة من الحالات الواعية.

أعلنت العديد من المختبرات صراحةً عن سعيها لتطوير ذكاء اصطناعي واعٍ. وقد وردت تقارير من مقربين من أنظمة الذكاء الاصطناعي التي لم تُصمم خصيصًا لتكون واعية بذاتها، تشير إلى احتمال ظهور الوعي فيها بشكل غير مقصود.[95] ومن أبرز هؤلاء الذين أشاروا إلى هذا الاحتمال، مؤسس أوبن أيه آيإيليا سوتسكيفر، الذي صرح في فبراير عام 2022 أن الشبكات العصبية الكبيرة المعاصرة قد تكون "واعية بشكل طفيف". وفي نوفمبر من العام نفسه، جادل الفيلسوف ديفيد تشالمرز بأن نماذج اللغات الكبيرة الحالية، مثل جي بي تي-3 من غير المحتمل أن تكون قد بلغت مرحلة الوعي، ولكنه أقر في الوقت ذاته بإمكانية حقيقية لتطورها إلى هذا المستوى في المستقبل.[96][97][98] وفي سياق الأخلاقيات المتعلقة بالكيانات التي قد تكون واعية، غالبًا ما يُستشهد بمبدأ الحيطة.[99]

بحسب كارل شولمان ونيك بوستروم قد يتأتى لنا في المستقبل أن نصنع آلات فائقة الكفاءة في استخلاص السعادة من الموارد، أطلقا عليها اسم "المستفيدين الخارقين". ويعزون ذلك إلى قدرة الأجهزة الرقمية على معالجة المعلومات بسرعة تفوق بكثير قدرات العقول البيولوجية، مما يزيد من وتيرة التجارب الذاتية. علاوة على ذلك، يمكن تصميم هذه الآلات لتختبر سعادة مكثفة وإيجابية، لا تقيدها آليات التعود النفسية. يحذر الباحثان من أن تجاهل الجوانب الأخلاقية المتعلقة بالعقول الرقمية قد يؤدي إلى كارثة أخلاقية، في حين أن إعطاء الأولوية لها على مصالح البشر دون تفكير قد يكون ضارًا بالبشرية.[100][101]

تهديد الكرامة الإنسانية

عدل

جادل جوزيف فايزنباوم[102] في عام 1976 بأنه لا ينبغي استخدام تقنية الذكاء الاصطناعي لاستبدال الأشخاص في المناصب التي تتطلب الاحترام والرعاية، مثل: ممثل خدمة العملاء (تُستخدم تقنية الذكاء الاصطناعي بالفعل اليوم لأنظمة الرد الصوتي التفاعلي عبر الهاتف)، ومُربية المسنين (كما ذكرت "باميلا مكوردوك" في كتابها "الجيل الخامس")، والجندي، والقاضي، وضابط الشرطة، والمُعالج النفسي (كما اقترح كينيث كولبي في السبعينيات). وبرر وايزنباوم موقفه بأننا نحتاج إلى مشاعر تعاطف حقيقية من الأشخاص في هذه المناصب. وإذا حلت الآلات محلهم، فسنجد أنفسنا مُهمّشين ومُقلّلين من قيمتنا ومُحبطين، لأن النظام الذكي اصطناعيًا لن يكون قادرًا على محاكاة التعاطف. وإذا استُخدم الذكاء الاصطناعي بهذه الطريقة فأنه قد يمثل تهديدًا للكرامة الإنسانية، ويجادل وايزنباوم بأن حقيقة أننا نُفكّر في إمكانية وجود آلات في هذه المناصب تُشير إلى أننا قد شهدنا "ضمورًا في الروح البشرية ينبع من التفكير في أنفسنا كأجهزة حاسوب".[103]

عارضت الباحثة "باميلا مكوردوك" رأي وايزنباوم قائلةً نيابةً عن النساء والأقليات: "أفضّل أن أغتنم فرصي مع جهاز حاسوب نزيه"، مُشيرةً إلى أن هناك ظروفًا نُفضّل فيها أن يكون لدينا قضاة وضباط شرطة آليين ليس لديهم أي أجندة شخصية على الإطلاق.[103] ومع ذلك، يؤكد أندرياس كابلان و"هاينلين" على أن أنظمة الذكاء الاصطناعي ليست أذكى من البيانات المُستخدمة في تدريبها، لأنها في جوهرها ليست سوى آلات مُتطورة لمُلاءمة المنحنيات؛ ويمكن أن يكون استخدام الذكاء الاصطناعي لدعم حكم قضائي إشكاليًا للغاية إذا أظهرت الأحكام السابقة تحيزًا تجاه مجموعات مُعينة لأن هذه التحيزات تصبح رسمية وراسخة، مما يجعل من الصعب اكتشافها ومُكافحتها.[104]

وقد انزعج وايزنباوم أيضًا من أن باحثي الذكاء الاصطناعي (وبعض الفلاسفة) كانوا على استعداد لاعتبار العقل البشري ليس أكثر من برنامج حاسوب (موقف يُعرف الآن باسم "الحوسبية"). وبالنسبة لوايزنباوم، تُشير هذه النقاط إلى أن أبحاث الذكاء الاصطناعي تُقلّل من قيمة حياة الإنسان.[102] وعارض جون مكارثي النبرة الأخلاقية لنقد وايزنباوم. وكتب: "عندما تكون الأخلاق حادة وغامضة، فإنها تدعو إلى إساءة استخدام السلطة". وكتب بيل هيبرد "تتطلب كرامة الإنسان أن نسعى جاهدين لإزالة جهلنا بطبيعة الوجود، والذكاء الاصطناعي ضروري لهذا السعي".[105]

المسؤولية عن المركبات ذاتية القيادة

عدل

مع تزايد انتشار السيارات ذاتية القيادة، برزت تحديات جديدة تتطلب معالجة عاجلة.[106][107] أبرز هذه التحديات مسألة المسؤولية القانونية في حال وقوع حوادث، إذ تطرح تساؤلات حول الجهة المسؤولة عن الحادث: هل هي الشركة المصنعة، أم مبرمج النظام، أم السائق، أم المشاة المتضرر؟ [108][109]

تُبرز العديد من الحوادث تعقيد هذه المسألة. في إحدى الحوادث، صدمت سيارة ذاتية القيادة أحد المشاة رغم وجود سائق خلف المقود.[110] وفي حادثة أخرى، وقعت في ولاية أريزونا عام 2018، أودت حياة سيدة صدمتها سيارة أوبر ذاتية القيادة، حيث عجزت السيارة عن اكتشاف المشاة في منتصف الطريق.[111]

تثير هذه الحوادث تساؤلات جوهرية حول قدرة التقنية الحالية على التعامل مع جميع المتغيرات التي قد تواجهها السيارة على الطريق. فمعظم السيارات ذاتية القيادة الحالية تعتبر شبه ذاتية، مما يتطلب من السائق التدخل في حالات معينة.[112][113] لذا، تقع على عاتق الحكومات مسؤولية تنظيم استخدام هذه التقنيات وتوعية السائقين بأهمية الانتباه والجاهزية لتولي القيادة في أي وقت.[114][115]

يُشدد الخبراء على ضرورة تمكين المركبات ذاتية القيادة من اتخاذ قرارات أخلاقية صحيحة، خاصة وأنها تمتلك القدرة على إلحاق الأذى بالآخرين.[116] اقترح الخبراء نهجين رئيسيين لتحقيق ذلك: النهج التصاعدي، القائم على تعليم الآلة اتخاذ القرارات من خلال مراقبة السلوك البشري، والنهج التنازلي، القائم على برمجة مبادئ أخلاقية محددة في نظام الآلة. ومع ذلك، يواجه كلا النهجين تحديات كبيرة، إذ يعاني الأول من خطر تعلّم الآلة سلوكيات غير أخلاقية، بينما يعاني الثاني من صعوبة تحديد مبادئ أخلاقية شاملة ومقبولة عالميًا.

التسليح

عدل

شكك بعض الخبراء والأكاديميين في استخدام الروبوتات في القتال العسكري، خاصةً عند إعطاء هذه الروبوتات قدرًا من الوظائف الذاتية.[117] وقامت البحرية الأمريكية بتمويل تقرير يُشير إلى أنه مع تزايد تعقيد الروبوتات العسكرية، ينبغي إيلاء اهتمام أكبر لانعكاسات قدرتها على اتخاذ قرارات مستقلة.[118][119] وكلف رئيس جمعية النهوض بالذكاء الاصطناعي بإجراء دراسة للنظر في هذه القضية.[120] ويشيرون إلى برامج مثل "جهاز اكتساب اللغة" الذي يمكنه محاكاة التفاعل البشري.

وفي 31 أكتوبر 2019 نشر مجلس الابتكار الدفاعي التابع لوزارة الدفاع الأمريكية مسودة تقرير يُوصي بمبادئ الاستخدام الأخلاقي للذكاء الاصطناعي من قبل وزارة الدفاع تضمن للمُشغل البشري دائمًا إمكانية النظر في الصندوق الأسود وفهم عملية سلسلة القتل. ومع ذلك، يتمثل أحد الشواغل الرئيسية في كيفية تنفيذ التقرير.[121] وقامت البحرية الأمريكية بتمويل تقرير يُشير إلى أنه مع تزايد تعقيد الروبوتات العسكرية، ينبغي إيلاء اهتمام أكبر لانعكاسات قدرتها على اتخاذ قرارات مستقلة.[119][122] ويذكر بعض الباحثين أن الروبوتات المستقلة قد تكون أكثر إنسانية، لأنها تستطيع اتخاذ القرارات بشكل أكثر فعالية.[123]

وقد بحثت الأبحاث في كيفية صنع قوة ذاتية لديها القدرة على التعلم باستخدام المسؤوليات الأخلاقية المُوكلة إليها. "قد تُستخدم النتائج عند تصميم الروبوتات العسكرية المستقبلية، للتحكم في الميول غير المرغوب فيها لإسناد المسؤولية إلى الروبوتات." [124] ومن وجهة نظر نفعية، هناك احتمال أن تُطور الروبوتات القدرة على اتخاذ قراراتها المنطقية الخاصة بها بشأن من تقتل، ولهذا السبب ينبغي أن يكون هناك إطار أخلاقي مُحدد لا يمكن للذكاء الاصطناعي تجاوزه.[125]

وقد كانت هناك موجة غضب حديثة فيما يتعلق بهندسة أسلحة الذكاء الاصطناعي التي تضمنت أفكارًا عن سيطرة الروبوتات على البشرية. وتُشكل أسلحة الذكاء الاصطناعي نوعًا من الخطر يختلف عن خطر الأسلحة التي يتحكم فيها الإنسان. وقد بدأت العديد من الحكومات في تمويل برامج لتطوير أسلحة الذكاء الاصطناعي. وأعلنت البحرية الأمريكية مؤخرًا عن خطط لتطوير أسلحة طائرات بدون طيار ذاتية القيادة، بالتوازي مع إعلانات مماثلة من روسيا وكوريا الجنوبية.[126] ونظرًا لاحتمالية أن تُصبح أسلحة الذكاء الاصطناعي أكثر خطورة من الأسلحة التي يُشغلها الإنسان، فقد وقّع ستيفن هوكينج و"ماكس تيجمارك" على عريضة "مستقبل الحياة" لحظر أسلحة الذكاء الاصطناعي.[127] وتنص العريضة التي نشرها هوكينج وتيجمارك على أن أسلحة الذكاء الاصطناعي تُشكل خطرًا مُباشرًا، وأهمية اتخاذ إجراءات لتجنب الكوارث الكارثية في المستقبل القريب.[128]

"إن أي تقدم كبير لقوة عسكرية في تطوير أسلحة الذكاء الاصطناعي سيؤدي حتمًا إلى سباق تسلح عالمي، ويتضح جليًا أن نهاية هذا المسار التكنولوجي ستكون انتشار الأسلحة المستقلة، لتتحول إلى سلاح الكلاشينكوف في المستقبل"، كما جاء في عريضة وقع عليها كل من يان تالين، المؤسس المشارك لسكايب، وناعوم تشومسكي، أستاذ اللغويات في معهد ماساتشوستس للتكنولوجيا، كداعمين إضافيين ضد أسلحة الذكاء الاصطناعي.[129]

وقد حذر السير مارتن ريس عالم الفيزياء والفلك من سيناريوهات كارثية قد تنجم عن فقدان السيطرة على الروبوتات أو تطوير شبكات ذكاء اصطناعي واعية بذاتها. كما أطلق هيو برايس، زميل ريس في جامعة كامبريدج، تحذيرًا مشابهًا، مؤكدًا أن بقاء البشرية قد يكون مهددًا إذا ما تمكن الذكاء الاصطناعي من التحرر من قيود البيولوجيا. وقد أسس هذان الباحثان مركز دراسة المخاطر الوجودية في جامعة كامبريدج سعيًا لتجنب هذه المخاطر التي تهدد وجود الجنس البشري.[128]

وبخصوص إمكانية توظيف أنظمة تفوق ذكاء الإنسان في الأغراض العسكرية، يشير مشروع "أوبن فيلانثروبي" إلى أن هذه الاحتمالات "تبدو بالغة الأهمية شأنها شأن المخاطر المترتبة على فقدان السيطرة". إلا أن الأبحاث التي تتناول الأثر الاجتماعي البعيد المدى للذكاء الاصطناعي قد خصصت وقتًا محدودًا نسبيًا لدراسة هذا الجانب: "لم تكن هذه الفئة من السيناريوهات محط تركيز رئيسي للمؤسسات الأكثر اهتمامًا بهذا المجال، مثل معهد أبحاث الذكاء الآلي (MIRI) ومعهد مستقبل الإنسانية (FHI)، ويبدو أن التحليل والمناقشة المتعلقة بها أقل شمولًا".[130]

ويؤكد الباحث "قاو تشيتشي" أن الاستخدام العسكري للذكاء الاصطناعي من شأنه أن يؤجج التنافس العسكري بين الدول، وأن آثاره لن تقتصر على دولة بعينها، بل ستمتد لتشمل جوانب أخرى.[131](ص.91) ويشير "قاو" في هذا السياق إلى الاستخدام الأمريكي للذكاء الاصطناعي في المجال العسكري، زاعمًا أنه تم استغلاله كذريعة للتملص من المسؤولية عن اتخاذ القرارات.[131](ص.91)

وقد عُقدت قمة في عام 2023 في لاهاي بشأن مسألة استخدام الذكاء الاصطناعي بمسؤولية في المجال العسكري.[132]

التفرد

عدل

اقترح فيرنور فينج من بين آخرين كثر، أنه قد تأتي لحظة يكون فيها بعض أجهزة الكمبيوتر، إن لم يكن جميعها، أكثر ذكاءً من البشر. يُشار عادةً إلى بداية هذا الحدث باسم "التفرد" وهو نقطة النقاش المركزية في فلسفة التفرد.[133] وبينما تتباين الآراء حول المصير النهائي للبشرية في أعقاب التفرد، أصبحت الجهود المبذولة للتخفيف من المخاطر الوجودية المُحتملة التي يُسببها الذكاء الاصطناعي موضوعًا مهمًا للنقاش في السنوات الأخيرة بين علماء الكمبيوتر والفلاسفة وعامة الناس.

وجادل العديد من الباحثين بأنه من خلال الانفجار الاستخباري، قد يُصبح الذكاء الاصطناعي المُحسّن ذاتيًا قويًا جدًا لدرجة أن البشر لن يكونوا قادرين على منعه من تحقيق أهدافه.[134] وفي ورقته البحثية "القضايا الأخلاقية في الذكاء الاصطناعي المُتقدم" وكتابه اللاحق "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، يُجادل الفيلسوف نيك بوستروم بأن الذكاء الاصطناعي لديه القدرة على إحداث انقراض بشري. ويدّعي أن الذكاء الخارق الاصطناعي سيكون قادرًا على المبادرة المُستقلة ووضع خططه الخاصة، وبالتالي قد يكون من الأنسب اعتباره وكيلًا مستقلًا. وبما أن العقول الاصطناعية لا تحتاج إلى مُشاركة ميولنا التحفيزية البشرية، فسيكون الأمر مُترتبًا على مُصممي الذكاء الخارق لتحديد دوافعه الأصلية. ونظرًا لأن الذكاء الاصطناعي الخارق سيكون قادرًا على إحداث أي نتيجة ممكنة تقريبًا وإحباط أي محاولة لمنع تنفيذ أهدافه، فقد تنشأ العديد من العواقب غير المُتوقعة الخارجة عن السيطرة. ويمكنه القضاء على جميع العوامل الأخرى، أو إقناعها بتغيير سلوكها، أو منع محاولاتها للتدخل.[135][136]

ومع ذلك، زعم بوستروم أن الذكاء الخارق لديه أيضًا القدرة على حل العديد من المشكلات الصعبة مثل الأمراض والفقر والدمار البيئي، ويمكن أن يُساعد البشر على تحسين أنفسهم.[137]

وما لم تُوفر لنا الفلسفة الأخلاقية نظرية أخلاقية لا تشوبها شائبة، فإن وظيفة المنفعة الخاصة بالذكاء الاصطناعي يمكن أن تسمح بالعديد من السيناريوهات الضارة المُحتملة التي تتوافق مع إطار أخلاقي مُعين ولكن ليس "الفطرة السليمة". ووفقًا لـ"إليعازر يودكوفسكي" لا يوجد سبب يُذكر للاعتقاد بأن العقل المُصمم صناعيًا سيكون لديه مثل هذا التكيف.[138] وقد اقترح باحثو الذكاء الاصطناعي مثل ستيوارت راسل، [139] و"بيل هيبرد"، [105] و"رومان يامبولسكي"، [140] و"شانون فالور"، [141] و"ستيفن أومبريلو"، [142] و"لوتشيانو فلوريدي"، [143] استراتيجيات تصميم لتطوير آلات مفيدة.

المؤسسات المعنية بسياسة وأخلاقيات الذكاء الاصطناعي

عدل

هناك العديد من المنظمات المعنية بأخلاقيات الذكاء الاصطناعي وسياساته، العامة والحكومية، بالإضافة إلى الشركات والمجتمعية.

قامت أمازون وجوجل وفيسبوك وآي بي إم ومايكروسوفت بتأسيس منظمة غير ربحية، وهي "الشراكة في الذكاء الاصطناعي لصالح الناس والمجتمع"، لصياغة أفضل الممارسات في تقنيات الذكاء الاصطناعي، وتعزيز فهم الجمهور، والعمل كمنصة حول الذكاء الاصطناعي. وانضمت آبل في يناير 2017. وسيقدم الأعضاء من الشركات مساهمات مالية وبحثية للمجموعة، مع التفاعل مع المجتمع العلمي لجلب الأكاديميين إلى مجلس الإدارة.[144]

وقام معهد مهندسي الكهرباء والإلكترونيات (IEEE) بتجميع مبادرة عالمية حول أخلاقيات الأنظمة المستقلة والذكية، والتي تقوم بإنشاء وتنقيح الإرشادات بمساعدة مُدخلات الجمهور، وتقبل كأعضاء العديد من المهنيين من داخل وخارج مُنظمتها. وتهدف مبادرة أخلاقيات الأنظمة المستقلة التابعة للمعهد إلى مُعالجة المعضلات الأخلاقية المُتعلقة بصنع القرار وتأثيره على المجتمع، مع وضع إرشادات لتطوير واستخدام الأنظمة المستقلة. وبشكل خاص في مجالات مثل الذكاء الاصطناعي والروبوتات، تُكرس مؤسسة الروبوتات المسؤولة لتعزيز السلوك الأخلاقي، بالإضافة إلى تصميم واستخدام الروبوتات المسؤول، وضمان التزام الروبوتات بالمبادئ الأخلاقية وتوافقها مع القيم الإنسانية.[145]

تقليديًا استخدمت المجتمعات الحكومة لضمان مراعاة الأخلاق من خلال التشريعات والرقابة. وهناك الآن العديد من الجهود التي تبذلها الحكومات الوطنية، بالإضافة إلى المنظمات الحكومية وغير الحكومية عبر الوطنية، لضمان تطبيق الذكاء الاصطناعي بشكل أخلاقي.[146]

المبادرات الحكومية الدولية

عدل

أولت المفوضية الأوروبية اهتمامًا بالغًا بمسألة الذكاء الاصطناعي، فأنشأت ما يُعرف بـ "مجموعة خبراء رفيعة المستوى" المعنية بهذا المجال. وقد أسفرت أعمال هذه المجموعة عن إصدار "إرشادات أخلاقية للذكاء الاصطناعي الجدير بالثقة" في 8 أبريل 2019.[147] علاوة على ذلك، أنشأت المفوضية وحدة متخصصة في مجال الروبوتات والذكاء الاصطناعي، والتي بدورها أصدرت ورقة بحثية حول التميز والموثوقية في ابتكار الذكاء الاصطناعي في 19 فبراير 2020.[148] ولم تتوقف جهود المفوضية عند هذا الحد، بل اقترحت أيضًا قانونًا شاملًا للذكاء الاصطناعي.[82] على صعيد آخر أنشأت منظمة التعاون الاقتصادي والتنمية "مرصد سياسات الذكاء الاصطناعي" بهدف متابعة التطورات في هذا المجال.[149]

وفي خطوة بارزة على الصعيد العالمي، اعتمدت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) في عام 2021م "التوصية بشأن أخلاقيات الذكاء الاصطناعي"، والتي تُعد أول معيار عالمي من نوعه في هذا الشأن.[150] وقد تميز هذا الإصدار بأهميته كأول وثيقة دولية شاملة تتناول قضايا أخلاقيات الذكاء الاصطناعي.[151]

المبادرات الحكومية

عدل

وضعت إدارة أوباما "خارطة طريق لسياسات الذكاء الاصطناعي".[152] وأصدرت إدارة أوباما ورقتين بيضاويتين بارزتين حول مستقبل وتأثير الذكاء الاصطناعي. وفي عام 2019 أصدر البيت الأبيض من خلال مذكرة تنفيذية تُعرف باسم "مبادرة الذكاء الاصطناعي الأمريكية"، تعليمات للمعهد الوطني للمعايير والتكنولوجيا (NIST) لبدء العمل على المشاركة الفيدرالية في معايير الذكاء الاصطناعي (فبراير 2019).[153] في يناير 2020 أصدرت إدارة ترامب مسودة أمر تنفيذي أصدره مكتب الإدارة والميزانية (OMB) بشأن "إرشادات لتنظيم تطبيقات الذكاء الاصطناعي". ويؤكد الأمر على الحاجة إلى الاستثمار في تطبيقات الذكاء الاصطناعي، وتعزيز ثقة الجمهور في الذكاء الاصطناعي، وتقليل حواجز استخدام الذكاء الاصطناعي، والحفاظ على القدرة التنافسية لتكنولوجيا الذكاء الاصطناعي الأمريكية في السوق العالمية. وهناك إشارة إلى الحاجة إلى مخاوف الخصوصية، ولكن لا يوجد مزيد من التفاصيل حول الإنفاذ. ويبدو أن تطورات تكنولوجيا الذكاء الاصطناعي الأمريكية هي محور التركيز والأولوية. بالإضافة إلى ذلك، يتم تشجيع الكيانات الفيدرالية على استخدام الأمر للتحايل على أي قوانين ولوائح حكومية قد تعتبرها السوق مُرهقة للغاية.[154]

شارك اتحاد الحوسبة المجتمعي بمسودة تقرير من أكثر من 100 صفحة خارطة طريق مجتمعية لمدة 20 عامًا لأبحاث الذكاء الاصطناعي في الولايات المتحدة.[155][156][157]

شهد العام 2021 في روسيا توقيع أول "مدونة أخلاقيات للذكاء الاصطناعي" مخصصة للأعمال. قاد هذه المبادرة المركز التحليلي لحكومة الاتحاد الروسي بالتعاون مع نخبة من المؤسسات التجارية والأكاديمية، من بينها سبيربنك، وياندكس، وروس آتوم، وكلية الاقتصاد العليا، ومعهد موسكو للفيزياء والتكنولوجيا، وجامعة آي تي إم أو، وروس للاتصالات وغيرها.[158]

المبادرات الأكاديمية

عدل

تضم جامعة أكسفورد ثلاثة معاهد بحثية تخصصت في دراسة أخلاقيات الذكاء الاصطناعي. أولها: معهد مستقبل الإنسانية الذي يولي اهتمامًا بالغًا بسلامة الذكاء الاصطناعي وحوكمته، [159] وثانيها: معهد أخلاقيات الذكاء الاصطناعي، الذي يديره جون تاسيولاس، ويهدف، من بين أهدافه العديدة، إلى ترسيخ مكانة أخلاقيات الذكاء الاصطناعي كحقل مستقل ودائم التطور مقارنة بالفروع الأخرى لأخلاقيات التطبيق.[160] أما ثالثها فهو: معهد أكسفورد للإنترنت، الذي يشرف عليه لوتشيانو فلوريدي، ويختص بدراسة أخلاقيات تقنيات الذكاء الاصطناعي وتكنولوجيا المعلومات والاتصالات على المدى القريب.[161]

أسهمت جوانا بريسون في تأسيس مركز الحوكمة الرقمية بجامعة هيرتي في برلين، حيث يركز البحث على قضايا الأخلاقيات المرتبطة بالتكنولوجيا.[162] ويعد معهد "الذكاء الاصطناعي الآن" بجامعة نيويورك مؤسسة بحثية تبحث في الآثار الاجتماعية للذكاء الاصطناعي. وتشمل اهتمامات أبحاثه المتعددة التخصصات موضوعات التحيز والشمولية، وعالم العمل والأتمتة، والحقوق والحريات الأساسية، والسلامة والبنية التحتية المدنية.[163] ويهتم معهد الأخلاقيات والتقنيات الناشئة (IEET) بدراسة آثار الذكاء الاصطناعي على البطالة والسياسات المتعلقة به.[164][165] ويقوم معهد أخلاقيات الذكاء الاصطناعي (IEAI) بجامعة ميونخ التقنية تحت قيادة كريستوف لوتج، بإجراء أبحاث في مجالات متنوعة كالنقل والتوظيف والرعاية الصحية والاستدامة.[166] وبدأت باربرا جيه جروسز، أستاذة العلوم الطبيعية بجامعة هارفارد، في دمج الأخلاقيات الحاسوبية في مناهج علوم الكمبيوتر بجامعة هارفارد، وذلك بهدف تكوين جيل جديد من علماء الحاسوب يتمتعون برؤية شاملة تأخذ في الاعتبار الأثر الاجتماعي لأعمالهم.[167]

المنظمات الخاصة

عدل

التاريخ

عدل

تاريخيًا، يعود البحث في الآثار الأخلاقية والمعنوية للآلات المُفكرة إلى عصر التنوير على الأقل: فقد طرح غوتفريد لايبنتس بالفعل سؤالًا حول ما إذا كان بإمكاننا أن ننسب الذكاء إلى آلية تتصرف كما لو كانت كائنًا واعيًا، [172] وكذلك فعل رينيه ديكارت الذي وصف ما يمكن اعتباره نسخة مُبكرة من اختبار تورنغ.[173]

تصور العصر الرومانسي عدة مرات مخلوقات اصطناعية تفلت من سيطرة خالقها بعواقب وخيمة، وأشهرها في رواية "فرانكشتاين" لماري شيلي. ومع ذلك، فإن الانشغال الواسع بالتصنيع والميكنة في القرن التاسع عشر وأوائل القرن العشرين، جلب الآثار الأخلاقية للتطورات التقنية المنفلتة إلى مُقدمة الأعمال الأدبية: روبوتات روسوم العالمية مسرحية كاريل تشابيك عن الروبوتات الواعية المُزودة بمشاعر تُستخدم كعمالة رقيق، لا تُنسب فقط إلى اختراع مُصطلح "روبوت" (مُشتق من الكلمة التشيكية للعمل القسري، robota) ولكنها كانت أيضًا نجاحًا دوليًا بعد عرضها لأول مرة في عام 1921. وتُشكك مسرحية جورج برنارد شو "العودة إلى ميثوسالح"، التي نُشرت في عام 1921، في مرحلة ما في صحة الآلات المُفكرة التي تتصرف مثل البشر؛ ويُظهر فيلم "متروبوليس" لفريتز لانغ عام 1927 إنسانًا آليًا يقود انتفاضة الجماهير المُستغلة ضد النظام القمعي لمجتمع تكنوقراطي. وفي الخمسينيات من القرن الماضي، نظر إسحق عظيموف في مسألة كيفية التحكم في الآلات في أنا، روبوت. وبإصرار من مُحرره جون دبليو كامبل جونيور، اقترح القوانين الثلاثة للروبوتات للتحكم في الأنظمة الذكية اصطناعيًا. ثم تم قضاء الكثير من عمله في اختبار حدود قوانينه الثلاثة لمعرفة أين ستنهار، أو أين ستُخلق سلوكًا مُتناقضًا أو غير مُتوقع.[174] ويُشير عمله إلى أنه لا توجد مجموعة من القوانين الثابتة يمكنها توقع جميع الظروف المُحتملة بشكل كافٍ.[175] وفي الآونة الأخيرة، طعن الأكاديميون والعديد من الحكومات في فكرة أن الذكاء الاصطناعي نفسه يمكن مساءلته.[176] وقامت لجنة شكلتها المملكة المتحدة في عام 2010 بمراجعة قوانين أسيموف لتوضيح أن الذكاء الاصطناعي هو مسؤولية إما مُصنعيه أو مالكه/مُشغّله.[177]

واقترح "إليعازر يودكوفسكي"، من معهد أبحاث الذكاء الآلي، في عام 2004 الحاجة إلى دراسة كيفية بناء "ذكاء اصطناعي ودود"، مما يعني أنه يجب أيضًا بذل جهود لجعل الذكاء الاصطناعي ودودًا وإنسانيًا بطبيعته.[178]

وفي عام 2009، حضر الأكاديميون والخبراء التقنيون مؤتمرًا نظمته جمعية النهوض بالذكاء الاصطناعي لمناقشة التأثير المُحتمل للروبوتات وأجهزة الكمبيوتر، وتأثير الاحتمال الافتراضي بأنه يمكن أن تُصبح مكتفية ذاتيًا وتتخذ قراراتها الخاصة. وناقشوا إمكانية ومدى قدرة أجهزة الكمبيوتر والروبوتات على اكتساب أي مستوى من الاستقلالية، وإلى أي مدى يمكنها استخدام هذه القدرات لتُشكل أي تهديد أو خطر.[179] ولاحظوا أن بعض الآلات قد اكتسبت أشكالًا مُختلفة من شبه الاستقلالية، بما في ذلك القدرة على العثور على مصادر طاقة بمفردها والقدرة على اختيار الأهداف للهجوم بالأسلحة بشكل مُستقل. ولاحظوا أيضًا أن بعض فيروسات الكمبيوتر يمكنها التهرب من الإزالة وقد حققت "ذكاء الصرصور". ولاحظوا أن الوعي بالذات كما هو موضح في الخيال العلمي من المُحتمل أنه غير مُرجح، ولكن هناك مخاطر ومزالق مُحتملة أخرى.[133]

وفي عام 2009 أيضًا، خلال تجربة في مُختبر الأنظمة الذكية في مدرسة لوزان الاتحادية للفنون التطبيقية في سويسرا، تعلمت الروبوتات التي تمت برمجتها للتعاون مع بعضها البعض (في البحث عن مورد مفيد وتجنب مورد سام) في النهاية الكذب على بعضها البعض في محاولة لاكتناز المورد المفيد.[180]

دور وتأثير الخيال

عدل

كان دور الخيال فيما يتعلق بأخلاقيات الذكاء الاصطناعي مُعقدًا.[181] يمكن للمرء أن يُميز ثلاثة مُستويات أثّر فيها الخيال على تطوير الذكاء الاصطناعي والروبوتات: تاريخيًا، كان الخيال يُنذر بالاستعارات الشائعة التي لم تُؤثر فقط على أهداف ورؤى الذكاء الاصطناعي، ولكنها حددت أيضًا الأسئلة الأخلاقية والمخاوف الشائعة المُرتبطة به. خلال النصف الثاني من القرن العشرين والعقود الأولى من القرن الحادي والعشرين، غالبًا ما رددت الثقافة الشعبية، وخاصة الأفلام والمسلسلات التلفزيونية وألعاب الفيديو، الانشغالات والتوقعات المُتعلقة بالأسئلة الأخلاقية المتعلقة بالذكاء الاصطناعي والروبوتات. ومؤخرًا، طغت هذه الموضوعات بشكل مُتزايد على الأدب خارج نطاق الخيال العلمي. وكما تُشير "كارمي تورّاس" أستاذة البحث في معهد الروبوتات والحوسبة الصناعية في الجامعة التقنية في كاتالونيا: "يُستخدم الخيال العلمي بشكل مُتزايد أيضًا لتدريس القضايا الأخلاقية المُتعلقة بالتكنولوجيا في الدرجات التكنولوجية".[182]

التأثير على التطور التكنولوجي

عدل

بينما غذى توقع مُستقبل تهيمن عليه التكنولوجيا التي لا تُقهَر خيال الكُتاب وصانعي الأفلام لفترة طويلة، إلا أن هناك سؤالًا واحدًا لم يتم تحليله بشكل مُتكرر، وهو إلى أي مدى لعب الخيال دورًا في توفير الإلهام للتطور التكنولوجي. فقد تم توثيق، على سبيل المثال، أن الشاب "آلان تورينج" شاهد وامتدح مسرحية شو المذكورة أعلاه "العودة إلى ميثوسالح" في عام 1933 [183] (قبل 3 سنوات فقط من نشر ورقته البحثية الأولى، [184] التي أرست الأساس لجهاز الكمبيوتر الرقمي)، ومن المُرجح أنه كان على الأقل على دراية بمسرحيات مثل روبوتات روسوم العالمية، التي حققت نجاحًا دوليًا وتُرجمت إلى العديد من اللغات.

قد يسأل المرء أيضًا عن الدور الذي لعبه الخيال العلمي في ترسيخ مبادئ الآثار الأخلاقية لتطوير الذكاء الاصطناعي: فقد صاغ إسحاق أسيموف قوانينه الثلاثة للروبوتات في قصة "الهروب" القصيرة عام 1942، وهي جزء من مجموعة القصص القصيرة "أنا، روبوت"؛ كُتبت قصة آرثر تشارلز كلارك القصيرة "الحارس"، التي يستند إليها فيلم ستانلي كوبريك "2001: ملحمة الفضاء"، في عام 1948 ونُشرت في عام 1952. ومن الأمثلة الأخرى قصص وفيلم "هل تحلم الروبوتات بخرفان آلية؟" لفيليب ك. ديك، الذي نُشر في عام 1968، والذي يُقدم نسخته الخاصة من اختبار تورينج، وهو اختبار فويت-كامبف، لقياس الاستجابات العاطفية للروبوتات التي لا يُمكن تمييزها عن البشر. وأصبحت الرواية فيما بعد أساسًا لفيلم "بليد رنر" المُؤثر لريدلي سكوت عام 1982.

وقد تصارع الخيال العلمي مع الآثار الأخلاقية لتطورات الذكاء الاصطناعي لعقود، وبالتالي قدم مخططًا للقضايا الأخلاقية التي قد تظهر بمجرد تحقيق شيء مُشابه للذكاء الاصطناعي العام: يُظهر فيلم سبايك جونز "هي" لعام 2013 ما يمكن أن يحدث إذا وقع المُستخدم في حب الصوت المُغري لنظام تشغيل هاتفه الذكي؛ من ناحية أخرى، يطرح فيلم "إكس ماكينا" سؤالًا أكثر صعوبة: إذا واجهنا آلة يُمكن التعرف عليها بوضوح، مصنوعة فقط من وجه وصوت عاطفي وحسي، فهل سنظل قادرين على إقامة اتصال عاطفي، هل ما زلنا نُغري بها؟ (يُردد الفيلم موضوعًا كان موجودًا بالفعل قبل قرنين من الزمان، في القصة القصيرة "الرجل الرملي" لإرنست هوفمان.)

موضوع التعايش مع الكائنات الواعية الاصطناعية هو أيضًا موضوع روايتين حديثتين: تتضمن رواية "آلات مثلي" لإيان ماك إيوان، التي نُشرت في عام 2019، من بين أشياء أخرى كثيرة، مُثلث حب يتضمن شخصًا اصطناعيًا بالإضافة إلى زوجين بشريين. ورواية "كلارا والشمس" الفائزة بجائزة نوبل لكازو إيشيجورو، التي نُشرت في عام 2021، هي رواية بضمير المتكلم من وجهة نظر كلارا، وهي "صديقة اصطناعية"، تُحاول، بطريقتها الخاصة، مُساعدة الفتاة التي تعيش معها، والتي، بعد أن "رُفعت" (أي خضعت لتحسينات وراثية)، تُعاني من مرض غريب.

المسلسلات التلفزيونية

عدل

بينما عٌرضت الأسئلة الأخلاقية المُرتبطة بالذكاء الاصطناعي في أدب الخيال العلمي والأفلام الروائية لعقود من الزمن، فإن ظهور المسلسلات التلفزيونية كنوع يسمح بخطوط قصصية وتطوير شخصيات أطول وأكثر تعقيدًا قد أدى إلى بعض المساهمات الهامة التي تتناول الآثار الأخلاقية للتكنولوجيا. حيث تناول المسلسل السويدي "بشر حقيقيون" (2012-2013) العواقب الأخلاقية والاجتماعية المُعقدة المُرتبطة بدمج الكائنات الواعية الاصطناعية في المجتمع. وكان المسلسل البريطاني المُختار للخيال العلمي المُظلم "المرآة السوداء" (2013-2019) بارزًا بشكل خاص لتجربته مع التطورات الخيالية المُظلمة المُرتبطة بمجموعة واسعة من التطورات التكنولوجية الحديثة. يتناول كل من المسلسل الفرنسي "التناضح" (2020) والمسلسل البريطاني "الواحد" مسألة ما يمكن أن يحدث إذا حاولت التكنولوجيا العثور على الشريك المثالي للشخص. تخيلت العديد من حلقات مسلسل "الحب والموت والروبوتات" على نتفليكس مشاهد للروبوتات والبشر يعيشون معًا. وأظهرت الحلقة الأولى من الموسم الثاني مدى سوء عواقب خروج الروبوتات عن نطاق السيطرة إذا اعتمد البشر عليها كثيرًا في حياتهم.[185]

الرؤى المستقبلية في الخيال والألعاب

عدل

يُشير فيلم الطابق الثالث عشر إلى مستقبل يتم فيه ابتكار عوالم مُحاكاة يسكنها كائنات واعية يتم التحكم فيها بوحدات ألعاب الكمبيوتر بهدف الترفيه. أما فيلم "الماتريكس" فيصور مستقبلًا تُهيمن فيه الآلات الواعية على كوكب الأرض، وتتعامل مع البشرية معاملة تمييزية بالغة. وفي القصة القصيرة "بلاند دايف"، تحول البشر أنفسهم إلى برامج قابلة للتكرار والتحسين، ويتجلى التمييز الأساسي بين هذه البرامج في كونها واعية أو غير واعية. ويمكن العثور على فكرة مماثلة في الصورة ثلاثية الأبعاد الطبية الطارئة لسفينة الفضاء فوييجر، وهي نسخة واعية على ما يبدو من جزء محدود من وعي مُنشئها، الدكتور زيمرمان، الذي أنشأ هذا النظام بدافع إنساني لتقديم المُساعدة الطبية في حالات الطوارئ. ويتناول فيلما الرجل ذو المائتي عام وإي آي إمكانية وجود روبوتات واعية قادرة على الحب. وقد استكشف فيلم أنا روبوت بعض جوانب قوانين أسيموف الثلاثة. تسعى جميع هذه السيناريوهات إلى التنبؤ بالعواقب الأخلاقية المُحتملة لخلق أجهزة كمبيوتر واعية.[186]

تُعدّ أخلاقيات الذكاء الاصطناعي من المحاور الجوهرية التي تستأثر باهتمام سلسلة ألعاب ماس إفيكت.[187] تستعرض اللعبة سيناريو افتراضي لحضارة ابتكرت، عن طريق الخطأ، ذكاءً اصطناعيًا واعيًا نتيجة تطوير شبكة عصبية على نطاق واسع. وقد أثار هذا الحدث انقسامًا أخلاقيًا حادًا بين مؤيدي منح هذا الذكاء حقوقًا مساوية لحقوق الكائنات الحية، وبين معارضي هذه الفكرة الذين رأوا فيه مجرد آلة يمكن التخلص منها. وبالإضافة إلى هذا الصراع الأساسي، فإن اللعبة تتناول باستمرار تعقيد العلاقة بين الخالق والمخلوق الاصطناعي.

ومن أبرز الألعاب التي تناقش هذه القضية في الآونة الأخيرة لعبة ديترويت: نحو الإنسانية.[188] تعتمد هذه اللعبة على رواية قصص تفاعلية لتمنح اللاعب تجربة غامرة. ويتحكم اللاعب في مصير ثلاثة أندرويدات أصبحت واعية، ويتخذ قرارات حاسمة تؤثر على مصيرهم ومصير البشرية. وتُعد هذه اللعبة فريدة من نوعها لأنها تتيح للاعب أن يعيش تجربة الاندرويد، مما يساعده على فهم حقوقه ومصالحه بشكل أفضل.

بمرور الوقت، اتجهت المناقشات إلى التركيز بشكل أقل على الإمكانية وأكثر على الرغبة، [189] كما تم التأكيد عليه في مناقشات "الكونية" و"الأرضية" التي بدأها "هوغو دي غاريس" وكيفن وارويك. الكوني، وفقًا لهوجو دي غاريس، يسعى بالفعل إلى بناء خلفاء أكثر ذكاءً للجنس البشري.

جادل الخبراء في جامعة كامبريدج بأن الذكاء الاصطناعي يُصور في الخيال والواقع على أنه أبيض عرقيًا، بطرق تُشوّه التصورات عن مخاطره وفوائده.[190]

اقرأ أيضا

عدل

وصلات خارجية

عدل
  • Russell، S.؛ Hauert، S.؛ Altman، R.؛ Veloso، M. (مايو 2015). "Robotics: Ethics of artificial intelligence". Nature. ج. 521 ع. 7553: 415–418. Bibcode:2015Natur.521..415.. DOI:10.1038/521415a. PMID:26017428. S2CID:4452826. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  • Hagendorff، Thilo (مارس 2020). "The Ethics of AI Ethics: An Evaluation of Guidelines". Minds and Machines. ج. 30 ع. 1: 99–120. arXiv:1903.03425. DOI:10.1007/s11023-020-09517-8. S2CID:72940833. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  • Eisikovits, Nir. "AI Is an Existential Threat--Just Not the Way You Think". Scientific American (بالإنجليزية). Archived from the original on 2023-07-13. Retrieved 2024-03-04.

مراجع

عدل
  1. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 42، QID:Q111421033
  2. ^ Fjeld، Jessica؛ Achten، Nele؛ Hilligoss، Hannah؛ Nagy، Adam؛ Srikumar، Madhulika (2020). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI". SSRN Working Paper Series. DOI:10.2139/ssrn.3518482. ISSN:1556-5068. اطلع عليه بتاريخ 2024-10-22.
  3. ^ Jobin، Anna؛ Ienca، Marcello؛ Vayena، Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. ج. 1 ع. 9: 389–399. DOI:10.1038/s42256-019-0088-2. ISSN:2522-5839. مؤرشف من الأصل في 2024-08-13. اطلع عليه بتاريخ 2024-10-22.
  4. ^ Anderson. "Machine Ethics". مؤرشف من الأصل في 2011-09-28. اطلع عليه بتاريخ 2011-06-27.
  5. ^ Anderson، Michael؛ Anderson، Susan Leigh، المحررون (يوليو 2011). Machine Ethics. مطبعة جامعة كامبريدج. ISBN:978-0-521-11235-2.
  6. ^ Anderson، M.؛ Anderson، S.L. (يوليو 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems. ج. 21 ع. 4: 10–11. DOI:10.1109/mis.2006.70. S2CID:9570832. مؤرشف من الأصل في 2024-07-11. اطلع عليه بتاريخ 2024-10-22.
  7. ^ Anderson، Michael؛ Anderson، Susan Leigh (15 ديسمبر 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine. ج. 28 ع. 4: 15. DOI:10.1609/aimag.v28i4.2065. S2CID:17033332. مؤرشف من الأصل في 2013-02-23. اطلع عليه بتاريخ 2024-10-22.
  8. ^ Boyles، Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri. ج. 6 ع. 2: 92–109. اطلع عليه بتاريخ 2024-10-22.
  9. ^ ا ب Winfield، A. F.؛ Michael، K.؛ Pitt، J.؛ Evers، V. (مارس 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]". Proceedings of the IEEE. ج. 107 ع. 3: 509–517. DOI:10.1109/JPROC.2019.2900622. ISSN:1558-2256. S2CID:77393713. مؤرشف من الأصل في 2024-05-09. اطلع عليه بتاريخ 2024-10-22.
  10. ^ Al-Rodhan، Nayef (7 ديسمبر 2015). "The Moral Code". Foreign Affairs. مؤرشف من الأصل في 2017-03-05. اطلع عليه بتاريخ 2017-03-04.
  11. ^ Sauer, Megan (08 Apr 2022). "Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it". CNBC (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-04-07.
  12. ^ Anadiotis, George (4 Apr 2022). "Massaging AI language models for fun, profit and ethics". ZDNET (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-04-07.
  13. ^ Wallach، Wendell؛ Allen، Colin (نوفمبر 2008). Moral Machines: Teaching Robots Right from Wrong. USA: دار نشر جامعة أكسفورد. ISBN:978-0-19-537404-9.
  14. ^ Bostrom، Nick؛ Yudkowsky، Eliezer (2011). "The Ethics of Artificial Intelligence" (pdf). Cambridge Handbook of Artificial Intelligence. مطبعة جامعة كامبريدج. مؤرشف (PDF) من الأصل في 2016-03-04. اطلع عليه بتاريخ 2011-06-22.
  15. ^ Santos-Lang، Chris (2002). "Ethics for Artificial Intelligences". مؤرشف من الأصل في 2014-12-25. اطلع عليه بتاريخ 2015-01-04.
  16. ^ Veruggio, Gianmarco (2007). "The Roboethics Roadmap". Scuola di Robotica: 2. CiteSeerX:10.1.1.466.2810. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  17. ^ ا ب Müller، Vincent C. (2020)، "Ethics of Artificial Intelligence and Robotics"، في Zalta، Edward N. (المحرر)، The Stanford Encyclopedia of Philosophy (ط. Winter 2020)، Metaphysics Research Lab, Stanford University، مؤرشف من الأصل في 2021-04-12، اطلع عليه بتاريخ 2021-03-18
  18. ^ ا ب Jobin، Anna؛ Ienca، Marcello؛ Vayena، Effy (2 سبتمبر 2020). "The global landscape of AI ethics guidelines". Nature. ج. 1 ع. 9: 389–399. arXiv:1906.11668. DOI:10.1038/s42256-019-0088-2. S2CID:201827642. مؤرشف من الأصل في 2024-08-13. اطلع عليه بتاريخ 2024-10-22.
  19. ^ Floridi، Luciano؛ Cowls، Josh (2 يوليو 2019). "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review. ج. 1. DOI:10.1162/99608f92.8cd550d1. S2CID:198775713. مؤرشف من الأصل في 2019-08-07. اطلع عليه بتاريخ 2024-10-22.
  20. ^ Gabriel، Iason (14 مارس 2018). "The case for fairer algorithms – Iason Gabriel". Medium. مؤرشف من الأصل في 2019-07-22. اطلع عليه بتاريخ 2019-07-22.
  21. ^ "5 unexpected sources of bias in artificial intelligence". TechCrunch. 10 ديسمبر 2016. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2019-07-22.
  22. ^ Knight، Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. مؤرشف من الأصل في 2019-07-04. اطلع عليه بتاريخ 2019-07-22.
  23. ^ Villasenor، John (03 يناير 2019). "Artificial intelligence and bias: Four key challenges". Brookings. مؤرشف من الأصل في 2019-07-22. اطلع عليه بتاريخ 2019-07-22.
  24. ^ Lohr، Steve (9 فبراير 2018). "Facial Recognition Is Accurate, if You're a White Guy". The New York Times. مؤرشف من الأصل في 2019-01-09. اطلع عليه بتاريخ 2019-05-29.
  25. ^ Koenecke، Allison؛ Nam، Andrew؛ Lake، Emily؛ Nudell، Joe؛ Quartey، Minnie؛ Mengesha، Zion؛ Toups، Connor؛ Rickford، John R.؛ Jurafsky، Dan؛ Goel، Sharad (7 أبريل 2020). "Racial disparities in automated speech recognition". Proceedings of the National Academy of Sciences. ج. 117 ع. 14: 7684–7689. Bibcode:2020PNAS..117.7684K. DOI:10.1073/pnas.1915768117. PMC:7149386. PMID:32205437. مؤرشف من الأصل في 2024-09-30. اطلع عليه بتاريخ 2024-10-22.
  26. ^ Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). "Bias in data-driven artificial intelligence systems—An introductory survey". WIREs Data Mining and Knowledge Discovery (بالإنجليزية). 10 (3). DOI:10.1002/widm.1356. ISSN:1942-4787. Archived from the original on 2024-09-25. Retrieved 2023-12-14.
  27. ^ "Amazon scraps secret AI recruiting tool that showed bias against women". Reuters. 10 أكتوبر 2018. مؤرشف من الأصل في 2019-05-27. اطلع عليه بتاريخ 2019-05-29.
  28. ^ Friedman، Batya؛ Nissenbaum، Helen (يوليو 1996). "Bias in computer systems". ACM Transactions on Information Systems. ج. 14 ع. 3: 330–347. DOI:10.1145/230538.230561. S2CID:207195759. مؤرشف من الأصل في 2024-11-22. اطلع عليه بتاريخ 2024-10-22.
  29. ^ "Eliminating bias in AI". techxplore.com. مؤرشف من الأصل في 2019-07-25. اطلع عليه بتاريخ 2019-07-26.
  30. ^ Abdalla، Mohamed؛ Wahle، Jan Philip؛ Ruas، Terry؛ Névéol، Aurélie؛ Ducel، Fanny؛ Mohammad، Saif؛ Fort، Karen (2023). Rogers، Anna؛ Boyd-Graber، Jordan؛ Okazaki، Naoaki (المحررون). "The Elephant in the Room: Analyzing the Presence of Big Tech in Natural Language Processing Research". Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Toronto, Canada: Association for Computational Linguistics: 13141–13160. arXiv:2305.02797. DOI:10.18653/v1/2023.acl-long.734. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2023-11-13.
  31. ^ Olson، Parmy. "Google's DeepMind Has An Idea For Stopping Biased AI". Forbes. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  32. ^ "Machine Learning Fairness | ML Fairness". Google Developers. مؤرشف من الأصل في 2019-08-10. اطلع عليه بتاريخ 2019-07-26.
  33. ^ "AI and bias – IBM Research – US". www.research.ibm.com. مؤرشف من الأصل في 2019-07-17. اطلع عليه بتاريخ 2019-07-26.
  34. ^ Bender، Emily M.؛ Friedman، Batya (ديسمبر 2018). "Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science". Transactions of the Association for Computational Linguistics. ج. 6: 587–604. DOI:10.1162/tacl_a_00041. مؤرشف من الأصل في 2024-06-03. اطلع عليه بتاريخ 2024-10-22.
  35. ^ Gebru، Timnit؛ Morgenstern، Jamie؛ Vecchione، Briana؛ Vaughan، Jennifer Wortman؛ Wallach، Hanna؛ Daumé III، Hal؛ Crawford، Kate (2018). "Datasheets for Datasets". arXiv:1803.09010 [cs.DB]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  36. ^ Pery، Andrew (06 أكتوبر 2021). "Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. مؤرشف من الأصل في 2022-02-18. اطلع عليه بتاريخ 2022-02-18.
  37. ^ Knight، Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. مؤرشف من الأصل في 2019-07-04. اطلع عليه بتاريخ 2019-07-26.
  38. ^ "Where in the World is AI? Responsible & Unethical AI Examples". مؤرشف من الأصل في 2020-10-31. اطلع عليه بتاريخ 2020-10-28.
  39. ^ Ruggieri، Salvatore؛ Alvarez، Jose M.؛ Pugnana، Andrea؛ State، Laura؛ Turini، Franco (26 يونيو 2023). "Can We Trust Fair-AI?". Proceedings of the AAAI Conference on Artificial Intelligence. Association for the Advancement of Artificial Intelligence (AAAI). ج. 37 ع. 13: 15421–15430. DOI:10.1609/aaai.v37i13.26798. hdl:11384/136444. ISSN:2374-3468. S2CID:259678387. مؤرشف من الأصل في 2024-11-27. اطلع عليه بتاريخ 2024-10-22.
  40. ^ Buyl، Maarten؛ De Bie، Tijl (2022). "Inherent Limitations of AI Fairness". Communications of the ACM. ج. 67 ع. 2: 48–55. arXiv:2212.06495. DOI:10.1145/3624700. hdl:1854/LU-01GMNH04RGNVWJ730BJJXGCY99. مؤرشف من الأصل في 2024-07-14. اطلع عليه بتاريخ 2024-10-22.
  41. ^ Castelnovo، Alessandro؛ Inverardi، Nicole؛ Nanino، Gabriele؛ Penco، Ilaria Giuseppina؛ Regoli، Daniele (2023). "Fair Enough? A map of the current limitations of the requirements to have "fair" algorithms". arXiv:2311.12435 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  42. ^ Aizenberg, Evgeni; Dennis, Matthew J.; van den Hoven, Jeroen (21 Oct 2023). "Examining the assumptions of AI hiring assessments and their impact on job seekers' autonomy over self-representation". AI & Society (بالإنجليزية). DOI:10.1007/s00146-023-01783-1. ISSN:0951-5666. Retrieved 2024-10-22.
  43. ^ Federspiel، Frederik؛ Mitchell، Ruth؛ Asokan، Asha؛ Umana، Carlos؛ McCoy، David (مايو 2023). "Threats by artificial intelligence to human health and human existence". BMJ Global Health. ج. 8 ع. 5: e010435. DOI:10.1136/bmjgh-2022-010435. ISSN:2059-7908. PMC:10186390. PMID:37160371. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-04-21.
  44. ^ ا ب Spindler، Gerald (2023)، "Different approaches for liability of Artificial Intelligence – Pros and Cons"، Liability for AI، Nomos Verlagsgesellschaft mbH & Co. KG، ص. 41–96، DOI:10.5771/9783748942030-41، ISBN:978-3-7489-4203-0، مؤرشف من الأصل في 2024-09-25، اطلع عليه بتاريخ 2023-12-14
  45. ^ Manyika، James (2022). "Getting AI Right: Introductory Notes on AI & Society". Daedalus. ج. 151 ع. 2: 5–27. DOI:10.1162/daed_e_01897. ISSN:0011-5266. مؤرشف من الأصل في 2024-06-19. اطلع عليه بتاريخ 2024-10-22.
  46. ^ Imran، Ali؛ Posokhova، Iryna؛ Qureshi، Haneya N.؛ Masood، Usama؛ Riaz، Muhammad Sajid؛ Ali، Kamran؛ John، Charles N.؛ Hussain، MD Iftikhar؛ Nabeel، Muhammad (01 يناير 2020). "AI4COVID-19: AI enabled preliminary diagnosis for COVID-19 from cough samples via an app". Informatics in Medicine Unlocked. ج. 20: 100378. DOI:10.1016/j.imu.2020.100378. ISSN:2352-9148. PMC:7318970. PMID:32839734. مؤرشف من الأصل في 2024-05-06. اطلع عليه بتاريخ 2024-10-22.
  47. ^ Cirillo, Davide; Catuara-Solarz, Silvina; Morey, Czuee; Guney, Emre; Subirats, Laia; Mellino, Simona; Gigante, Annalisa; Valencia, Alfonso; Rementeria, María José; Chadha, Antonella Santuccione; Mavridis, Nikolaos (01 Jun 2020). "Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare". npj Digital Medicine (بالإنجليزية). 3 (1): 81. DOI:10.1038/s41746-020-0288-5. ISSN:2398-6352. PMC:7264169. PMID:32529043. Archived from the original on 2024-02-25. Retrieved 2024-10-22.
  48. ^ Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). "Bias in data-driven artificial intelligence systems—An introductory survey". WIREs Data Mining and Knowledge Discovery (بالإنجليزية). 10 (3). DOI:10.1002/widm.1356. ISSN:1942-4787. Archived from the original on 2024-09-25. Retrieved 2024-10-22.
  49. ^ ا ب Luo, Queenie; Puett, Michael J.; Smith, Michael D. (28 Mar 2023). "A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube" (بالإنجليزية). arXiv:2303.16281v2 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (help)
  50. ^ Busker، Tony؛ Choenni، Sunil؛ Shoae Bargh، Mortaza (20 نوفمبر 2023). "Stereotypes in ChatGPT: An empirical study". Proceedings of the 16th International Conference on Theory and Practice of Electronic Governance. ICEGOV '23. New York, NY, USA: Association for Computing Machinery. ص. 24–32. DOI:10.1145/3614321.3614325. ISBN:979-8-4007-0742-1. مؤرشف من الأصل في 2024-08-06. اطلع عليه بتاريخ 2024-10-22.
  51. ^ Kotek، Hadas؛ Dockum، Rikker؛ Sun، David (05 نوفمبر 2023). "Gender bias and stereotypes in Large Language Models". Proceedings of the ACM Collective Intelligence Conference. CI '23. New York, NY, USA: Association for Computing Machinery. ص. 12–24. arXiv:2308.14921. DOI:10.1145/3582269.3615599. ISBN:979-8-4007-0113-9. مؤرشف من الأصل في 2024-09-20. اطلع عليه بتاريخ 2024-10-22.
  52. ^ Federspiel, Frederik; Mitchell, Ruth; Asokan, Asha; Umana, Carlos; McCoy, David (May 2023). "Threats by artificial intelligence to human health and human existence". BMJ Global Health (بالإنجليزية). 8 (5): e010435. DOI:10.1136/bmjgh-2022-010435. ISSN:2059-7908. PMC:10186390. PMID:37160371. Retrieved 2024-10-22.
  53. ^ Feng، Shangbin؛ Park، Chan Young؛ Liu، Yuhan؛ Tsvetkov، Yulia (يوليو 2023). Rogers، Anna؛ Boyd-Graber، Jordan؛ Okazaki، Naoaki (المحررون). "From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models". Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Toronto, Canada: Association for Computational Linguistics: 11737–11762. arXiv:2305.08283. DOI:10.18653/v1/2023.acl-long.656. مؤرشف من الأصل في 2024-12-01. اطلع عليه بتاريخ 2024-10-22.
  54. ^ Zhou، Karen؛ Tan، Chenhao (ديسمبر 2023). Bouamor، Houda؛ Pino، Juan؛ Bali، Kalika (المحررون). "Entity-Based Evaluation of Political Bias in Automatic Summarization". Findings of the Association for Computational Linguistics: EMNLP 2023. Singapore: Association for Computational Linguistics: 10374–10386. arXiv:2305.02321. DOI:10.18653/v1/2023.findings-emnlp.696. مؤرشف من الأصل في 2024-04-24. اطلع عليه بتاريخ 2023-12-25.
  55. ^ Cheng, Myra; Durmus, Esin; Jurafsky, Dan (29 May 2023). "Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models" (بالإنجليزية). arXiv:2305.18189v1 [cs.CL]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (help)
  56. ^ Hammond, George (27 Dec 2023). "Big Tech is spending more than VC firms on AI startups". Ars Technica (بالإنجليزية). Archived from the original on 2024-01-10. Retrieved 2024-10-22.
  57. ^ Wong, Matteo (24 Oct 2023). "The Future of AI Is GOMA". The Atlantic (بالإنجليزية). Archived from the original on 2024-01-05. Retrieved 2024-10-22.
  58. ^ Fung, Brian (19 Dec 2023). "Where the battle to dominate AI may be won". CNN Business (بالإنجليزية). Archived from the original on 2024-01-13. Retrieved 2024-10-22.
  59. ^ Metz، Cade (5 يوليو 2023). "In the Age of A.I., Tech's Little Guys Need Big Friends". The New York Times. مؤرشف من الأصل في 2024-07-08. اطلع عليه بتاريخ 2024-07-17.
  60. ^ "proceedings" (PDF). مؤرشف من الأصل (pdf) في 2016-03-04. اطلع عليه بتاريخ 2024-10-22.
  61. ^ Stewart, Ashley; Melton, Monica. "Hugging Face CEO says he's focused on building a 'sustainable model' for the $4.5 billion open-source-AI startup". Business Insider (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-04-07.
  62. ^ "The open-source AI boom is built on Big Tech's handouts. How long will it last?". MIT Technology Review (بالإنجليزية). Archived from the original on 2024-01-05. Retrieved 2024-04-07.
  63. ^ Yao، Deborah (21 فبراير 2024). "Google Unveils Open Source Models to Rival Meta, Mistral". AI Business. مؤرشف من الأصل في 2024-09-26. اطلع عليه بتاريخ 2024-10-22.
  64. ^ 7001-2021 - IEEE Standard for Transparency of Autonomous Systems. IEEE. 4 مارس 2022. ص. 1–54. DOI:10.1109/IEEESTD.2022.9726144. ISBN:978-1-5044-8311-7. S2CID:252589405. مؤرشف من الأصل في 2023-07-26. اطلع عليه بتاريخ 2023-07-09..
  65. ^ Kamila، Manoj Kumar؛ Jasrotia، Sahil Singh (01 يناير 2023). "Ethical issues in the development of artificial intelligence: recognizing the risks". International Journal of Ethics and Systems. DOI:10.1108/IJOES-05-2023-0107. ISSN:2514-9369. S2CID:259614124. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2024-10-22.
  66. ^ Thurm، Scott (13 يوليو 2018). "Microsoft Calls For Federal Regulation of Facial Recognition". Wired. مؤرشف من الأصل في 2019-05-09. اطلع عليه بتاريخ 2019-01-10.
  67. ^ Piper, Kelsey (02 Feb 2024). "Should we make our most powerful AI models open source to all?". Vox (بالإنجليزية). Archived from the original on 2024-10-05. Retrieved 2024-04-07.
  68. ^ Vincent, James (15 Mar 2023). "OpenAI co-founder on company's past approach to openly sharing research: "We were wrong"". The Verge (بالإنجليزية). Archived from the original on 2023-03-17. Retrieved 2024-04-07.
  69. ^ "Inside The Mind Of A.I." مؤرشف من الأصل في 2021-08-10. اطلع عليه بتاريخ 2024-10-22.
  70. ^ Bunn, Jenny (13 Apr 2020). "Working in contexts for which transparency is important: A recordkeeping view of explainable artificial intelligence (XAI)". Records Management Journal (بالإنجليزية). 30 (2): 143–153. DOI:10.1108/RMJ-08-2019-0038. ISSN:0956-5698. S2CID:219079717. Archived from the original on 2024-09-27. Retrieved 2024-10-22.
  71. ^ Li, Fan; Ruijs, Nick; Lu, Yuan (31 Dec 2022). "Ethics & AI: A Systematic Review on Ethical Concerns and Related Strategies for Designing with AI in Healthcare". AI (بالإنجليزية). 4 (1): 28–53. DOI:10.3390/ai4010003. ISSN:2673-2688. Archived from the original on 2024-10-01. Retrieved 2024-10-22.
  72. ^ Howard، Ayanna (29 يوليو 2019). "The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard". MIT Sloan Management Review. مؤرشف من الأصل في 2019-08-14. اطلع عليه بتاريخ 2019-08-14.
  73. ^ "Trust in artificial intelligence - A five country study" (pdf). KPMG. مارس 2021. مؤرشف (PDF) من الأصل في 2023-10-01. اطلع عليه بتاريخ 2023-10-06.
  74. ^ Bastin، Roland؛ Wantz، Georges (يونيو 2017). "The General Data Protection Regulation Cross-industry innovation" (pdf). Inside magazine. Deloitte. مؤرشف (PDF) من الأصل في 2019-01-10. اطلع عليه بتاريخ 2019-01-10.
  75. ^ "UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'". UN News. 07 يونيو 2017. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  76. ^ "Artificial intelligence – Organisation for Economic Co-operation and Development". www.oecd.org. مؤرشف من الأصل في 2019-07-22. اطلع عليه بتاريخ 2019-07-26.
  77. ^ Anonymous (14 يونيو 2018). "The European AI Alliance". Digital Single Market – European Commission. مؤرشف من الأصل في 2019-08-01. اطلع عليه بتاريخ 2019-07-26.
  78. ^ European Commission High-Level Expert Group on AI (26 Jun 2019). "Policy and investment recommendations for trustworthy Artificial Intelligence". Shaping Europe’s digital future – European Commission (بالإنجليزية). Archived from the original on 2020-02-26. Retrieved 2020-03-16.
  79. ^ Fukuda-Parr, Sakiko; Gibbons, Elizabeth (Jul 2021). "Emerging Consensus on 'Ethical AI': Human Rights Critique of Stakeholder Guidelines". Global Policy (بالإنجليزية). 12 (S6): 32–44. DOI:10.1111/1758-5899.12965. ISSN:1758-5880. Archived from the original on 2024-02-21. Retrieved 2024-10-22.
  80. ^ "EU Tech Policy Brief: July 2019 Recap". Center for Democracy & Technology. 2 أغسطس 2019. مؤرشف من الأصل في 2019-08-09. اطلع عليه بتاريخ 2019-08-09.
  81. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 May 2022). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks". AI and Ethics (بالإنجليزية). 3 (1): 145–153. DOI:10.1007/s43681-022-00163-7. ISSN:2730-5961. PMC:9127285. PMID:35634256. Archived from the original on 2023-03-15. Retrieved 2022-05-29.
  82. ^ ا ب "Why the world needs a Bill of Rights on AI". Financial Times. 18 أكتوبر 2021. مؤرشف من الأصل في 2021-10-19. اطلع عليه بتاريخ 2023-03-19.
  83. ^ Challen, Robert; Denny, Joshua; Pitt, Martin; Gompels, Luke; Edwards, Tom; Tsaneva-Atanasova, Krasimira (Mar 2019). "Artificial intelligence, bias and clinical safety". BMJ Quality & Safety (بالإنجليزية). 28 (3): 231–237. DOI:10.1136/bmjqs-2018-008370. ISSN:2044-5415. PMC:6560460. PMID:30636200. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  84. ^ Evans، Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. ج. 12 ع. 2. DOI:10.5209/rev_TK.2015.v12.n2.49072. مؤرشف من الأصل في 2016-06-11. اطلع عليه بتاريخ 2024-10-22.
  85. ^ Sheliazhenko، Yurii (2017). "Artificial Personal Autonomy and Concept of Robot Rights". European journal of law and political sciences. مؤرشف من الأصل في 2018-07-14. اطلع عليه بتاريخ 2017-05-10. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  86. ^ The American Heritage Dictionary of the English Language, Fourth Edition
  87. ^ "Robots could demand legal rights". BBC News. 21 ديسمبر 2006. مؤرشف من الأصل في 2019-10-15. اطلع عليه بتاريخ 2010-01-03.
  88. ^ ا ب Henderson، Mark (24 أبريل 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. مؤرشف من الأصل في 2008-05-17. اطلع عليه بتاريخ 2010-05-02.
  89. ^ Kurzweil، Ray (2005). The Singularity is Near. Penguin Books. ISBN:978-0-670-03384-3.
  90. ^ "The Big Question: Should the human race be worried by the rise of robots?". موقع الجزيرة. مؤرشف من الأصل في 2020-05-06. اطلع عليه بتاريخ 2024-10-22.{{استشهاد ويب}}: صيانة الاستشهاد: BOT: original URL status unknown (link)
  91. ^ "Loebner Prize Contest Official Rules — Version 2.0" (PDF). مؤرشف من الأصل (pdf) في 2016-03-03. اطلع عليه بتاريخ 2024-10-22.
  92. ^ "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. مؤرشف من الأصل في 2020-04-14. اطلع عليه بتاريخ 2024-10-22.
  93. ^ Vincent، James (30 أكتوبر 2017). "Pretending to give a robot citizenship helps no one". The Verge. مؤرشف من الأصل في 2019-08-03. اطلع عليه بتاريخ 2024-10-22.
  94. ^ Close engagements with artificial companions : key social, psychological, ethical and design issues. Wilks, Yorick, 1939-. Amsterdam: John Benjamins Pub. Co. 2010. ISBN:978-9027249944. OCLC:642206106. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.{{استشهاد بكتاب}}: صيانة الاستشهاد: آخرون (link)
  95. ^ Macrae, Carl (Sep 2022). "Learning from the Failure of Autonomous and Intelligent Systems: Accidents, Safety, and Sociotechnical Sources of Risk". Risk Analysis (بالإنجليزية). 42 (9): 1999–2025. Bibcode:2022RiskA..42.1999M. DOI:10.1111/risa.13850. ISSN:0272-4332. PMID:34814229. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  96. ^ Agarwal A، Edelman S (2020). "Functionally effective conscious AI without suffering". Journal of Artificial Intelligence and Consciousness. ج. 7: 39–50. arXiv:2002.05652. DOI:10.1142/S2705078520300030. S2CID:211096533. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  97. ^ Thomas Metzinger (فبراير 2021). "Artificial Suffering: An Argument for a Global Moratorim on Synthetic Phenomenology". Journal of Artificial Intelligence and Consciousness. ج. 8: 43–66. DOI:10.1142/S270507852150003X. S2CID:233176465. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  98. ^ Chalmers، David (مارس 2023). "Could a Large Language Model be Conscious?". arXiv:2303.07103v1 [Science Computer Science]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  99. ^ Birch، Jonathan (01 يناير 2017). "Animal sentience and the precautionary principle". Animal Sentience. ج. 2 ع. 16. DOI:10.51291/2377-7478.1200. ISSN:2377-7478. مؤرشف من الأصل في 2024-08-11. اطلع عليه بتاريخ 2024-07-08.
  100. ^ Shulman، Carl؛ Bostrom، Nick (أغسطس 2021). "Sharing the World with Digital Minds" (PDF). Rethinking Moral Status. مؤرشف من الأصل (pdf) في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  101. ^ Fisher, Richard (13 Nov 2020). "The intelligent monster that you should let eat you" (بالإنجليزية). BBC News. Archived from the original on 2021-12-11. Retrieved 2021-02-12.
  102. ^ ا ب
  103. ^ ا ب جوزيف فايزنباوم, quoted in McCorduck 2004، صفحات 356, 374–376
  104. ^ Kaplan، Andreas؛ Haenlein، Michael (يناير 2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. ج. 62 ع. 1: 15–25. DOI:10.1016/j.bushor.2018.08.004. S2CID:158433736. مؤرشف من الأصل في 2024-10-01. اطلع عليه بتاريخ 2024-10-22.
  105. ^ ا ب Hibbard، Bill (17 نوفمبر 2015). "Ethical Artificial Intelligence". arXiv:1411.1373 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  106. ^ Davies، Alex (29 فبراير 2016). "Google's Self-Driving Car Caused Its First Crash". Wired. مؤرشف من الأصل في 2019-07-07. اطلع عليه بتاريخ 2019-07-26.
  107. ^ Levin، Sam؛ Wong، Julia Carrie (19 مارس 2018). "Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian". The Guardian. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  108. ^ "Who is responsible when a self-driving car has an accident?". Futurism. 30 يناير 2018. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  109. ^ "Autonomous Car Crashes: Who – or What – Is to Blame?". Knowledge@Wharton. Law and Public Policy. Radio Business North America Podcasts. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  110. ^ Delbridge، Emily. "Driverless Cars Gone Wild". The Balance. مؤرشف من الأصل في 2019-05-29. اطلع عليه بتاريخ 2019-05-29.
  111. ^ Stilgoe, Jack (2020), "Who Killed Elaine Herzberg?", Who’s Driving Innovation? (بالإنجليزية), Cham: Springer International Publishing, pp. 1–6, DOI:10.1007/978-3-030-32320-2_1, ISBN:978-3-030-32319-6, S2CID:214359377, Archived from the original on 2021-03-18, Retrieved 2020-11-11
  112. ^ Maxmen، Amy (أكتوبر 2018). "Self-driving car dilemmas reveal that moral choices are not universal". Nature. ج. 562 ع. 7728: 469–470. Bibcode:2018Natur.562..469M. DOI:10.1038/d41586-018-07135-0. PMID:30356197. مؤرشف من الأصل في 2023-10-06. اطلع عليه بتاريخ 2024-10-22.
  113. ^ "Regulations for driverless cars". GOV.UK. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  114. ^ "Automated Driving: Legislative and Regulatory Action – CyberWiki". cyberlaw.stanford.edu. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  115. ^ "Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation". www.ncsl.org. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  116. ^ Etzioni, Amitai; Etzioni, Oren (01 Dec 2017). "Incorporating Ethics into Artificial Intelligence". The Journal of Ethics (بالإنجليزية). 21 (4): 403–418. DOI:10.1007/s10892-017-9252-2. ISSN:1572-8609. S2CID:254644745. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  117. ^ "Call for debate on killer robots". BBC News. مؤرشف من الأصل في 2009-08-07. اطلع عليه بتاريخ 2024-10-22.
  118. ^ "Science New Navy-funded Report Warns of War Robots Going "Terminator"". مؤرشف من الأصل في 2009-07-28. اطلع عليه بتاريخ 2024-10-22.
  119. ^ ا ب "Navy report warns of robot uprising, suggests a strong moral compass". Engadget. مؤرشف من الأصل في 2011-06-04. اطلع عليه بتاريخ 2024-10-22.
  120. ^ "AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study". Microsoft Research. مؤرشف من الأصل في 2009-08-28. اطلع عليه بتاريخ 2024-10-22.
  121. ^ United States. Defense Innovation Board. AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC:1126650738. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  122. ^ "New Navy-funded Report Warns of War Robots Going "Terminator"". مؤرشف من الأصل في 2009-07-28. اطلع عليه بتاريخ 2024-10-22.
  123. ^ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (Mar 2020). "The future of war: could lethal autonomous weapons make conflict more ethical?". AI & Society (بالإنجليزية). 35 (1): 273–282. DOI:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN:0951-5666. S2CID:59606353. Archived from the original on 2021-01-05. Retrieved 2020-11-11.
  124. ^ Hellström، Thomas (يونيو 2013). "On the moral responsibility of military robots". Ethics and Information Technology. ج. 15 ع. 2: 99–107. DOI:10.1007/s10676-012-9301-2. S2CID:15205810. بروكويست 1372020233. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  125. ^ Mitra، Ambarish (5 أبريل 2018). "We can train AI to identify good and evil, and then use it to teach us morality". Quartz. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  126. ^ Dominguez، Gabriel (23 أغسطس 2022). "South Korea developing new stealthy drones to support combat aircraft". اليابان تايمز. مؤرشف من الأصل في 2022-08-23. اطلع عليه بتاريخ 2023-06-14.
  127. ^ "AI Principles". Future of Life Institute. 11 أغسطس 2017. مؤرشف من الأصل في 2017-12-11. اطلع عليه بتاريخ 2019-07-26.
  128. ^ ا ب Zach Musgrave and Bryan W. Roberts (14 أغسطس 2015). "Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic". The Atlantic. مؤرشف من الأصل في 2017-04-11. اطلع عليه بتاريخ 2017-03-06.
  129. ^ Cat Zakrzewski (27 يوليو 2015). "Musk, Hawking Warn of Artificial Intelligence Weapons". WSJ. مؤرشف من الأصل في 2015-07-28. اطلع عليه بتاريخ 2017-08-04.
  130. ^ "Potential Risks from Advanced Artificial Intelligence". Open Philanthropy (بالإنجليزية). 11 Aug 2015. Archived from the original on 2024-10-27. Retrieved 2024-04-07.
  131. ^ ا ب Bachulska، Alicja؛ Leonard، Mark؛ Oertel، Janka (2 يوليو 2024). The Idea of China: Chinese Thinkers on Power, Progress, and People (EPUB). Berlin, Germany: المجلس الأوروبي للعلاقات الخارجية. ISBN:978-1-916682-42-9. مؤرشف من الأصل في 2024-07-17. اطلع عليه بتاريخ 2024-07-22.
  132. ^ Brandon Vigliarolo. "International military AI summit ends with 60-state pledge". www.theregister.com (بالإنجليزية). Archived from the original on 2024-10-27. Retrieved 2023-02-17.
  133. ^ ا ب Markoff، John (25 يوليو 2009). "Scientists Worry Machines May Outsmart Man". The New York Times. مؤرشف من الأصل في 2017-02-25. اطلع عليه بتاريخ 2017-02-24.
  134. ^ ""Intelligence Explosion and Machine Ethics"" (PDF). Global Catastrophic Risks. مؤرشف من الأصل (pdf) في 2015-05-07. اطلع عليه بتاريخ 2024-10-22.
  135. ^ ""Ethical Issues in Advanced Artificial Intelligence"". Nick Bostrom. مؤرشف من الأصل في 2018-10-08. اطلع عليه بتاريخ 2024-10-22.
  136. ^ Bostrom، Nick (2017). Superintelligence: paths, dangers, strategies. Oxford, United Kingdom: Oxford University Press. ISBN:978-0-19-967811-2.
  137. ^ Umbrello, Steven; Baum, Seth D. (01 Jun 2018). "Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing". Futures (بالإنجليزية). 100: 63–73. DOI:10.1016/j.futures.2018.04.007. hdl:2318/1685533. ISSN:0016-3287. S2CID:158503813. Archived from the original on 2019-05-09. Retrieved 2020-11-29.
  138. ^ ""Complex Value Systems in Friendly AI"" (PDF). Global Catastrophic Risks. مؤرشف من الأصل (pdf) في 2015-09-29. اطلع عليه بتاريخ 2024-10-22.
  139. ^ Russell، Stuart (8 أكتوبر 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN:978-0-525-55861-3. OCLC:1083694322. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  140. ^ Yampolskiy، Roman V. (01 مارس 2020). "Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent". Journal of Artificial Intelligence and Consciousness. ج. 07 ع. 1: 109–118. DOI:10.1142/S2705078520500034. ISSN:2705-0785. S2CID:218916769. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2020-11-29.
  141. ^ Wallach, Wendell; Vallor, Shannon (17 Sep 2020), "Moral Machines: From Value Alignment to Embodied Virtue", Ethics of Artificial Intelligence (بالإنجليزية), Oxford University Press, pp. 383–412, DOI:10.1093/oso/9780190905033.003.0014, ISBN:978-0-19-090503-3, Archived from the original on 2020-12-08, Retrieved 2020-11-29
  142. ^ Umbrello, Steven (2019). "Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach". Big Data and Cognitive Computing (بالإنجليزية). 3 (1): 5. DOI:10.3390/bdcc3010005. hdl:2318/1685727. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  143. ^ Floridi, Luciano; Cowls, Josh; King, Thomas C.; Taddeo, Mariarosaria (2020). "How to Design AI for Social Good: Seven Essential Factors". Science and Engineering Ethics (بالإنجليزية). 26 (3): 1771–1796. DOI:10.1007/s11948-020-00213-5. ISSN:1353-3452. PMC:7286860. PMID:32246245. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  144. ^ Fiegerman، Seth (28 سبتمبر 2016). "Facebook, Google, Amazon create group to ease AI concerns". CNNMoney. مؤرشف من الأصل في 2020-09-17. اطلع عليه بتاريخ 2020-08-18.
  145. ^ "The IEEE Global Initiative 2.0 on Ethics of Autonomous and Intelligent Systems". IEEE Standards Association (بالإنجليزية). Archived from the original on 2024-12-04. Retrieved 2024-11-12.
  146. ^ Slota, Stephen C.; Fleischmann, Kenneth R.; Greenberg, Sherri; Verma, Nitin; Cummings, Brenna; Li, Lan; Shenefiel, Chris (2023). "Locating the work of artificial intelligence ethics". Journal of the Association for Information Science and Technology (بالإنجليزية). 74 (3): 311–322. DOI:10.1002/asi.24638. ISSN:2330-1635. S2CID:247342066. Archived from the original on 2024-09-25. Retrieved 2023-07-21.
  147. ^ "Ethics guidelines for trustworthy AI". Shaping Europe’s digital future – European Commission (بالإنجليزية). European Commission. 08 Apr 2019. Archived from the original on 2020-02-20. Retrieved 2020-02-20.
  148. ^ "White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future". European Commission – European Commission. 19 فبراير 2020. مؤرشف من الأصل في 2021-03-06. اطلع عليه بتاريخ 2021-03-18.
  149. ^ "OECD AI Policy Observatory". OECD.AI. مؤرشف من الأصل في 2021-03-08. اطلع عليه بتاريخ 2021-03-18.
  150. ^ Recommendation on the Ethics of Artificial Intelligence. UNESCO. 2021. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  151. ^ "UNESCO member states adopt first global agreement on AI ethics". Helsinki Times (بالإنجليزية). 26 Nov 2021. Archived from the original on 2024-09-25. Retrieved 2023-04-26.
  152. ^ "The Obama Administration's Roadmap for AI Policy". Harvard Business Review. 21 ديسمبر 2016. ISSN:0017-8012. مؤرشف من الأصل في 2021-01-22. اطلع عليه بتاريخ 2021-03-16.
  153. ^ "Accelerating America's Leadership in Artificial Intelligence – The White House". trumpwhitehouse.archives.gov. مؤرشف من الأصل في 2021-02-25. اطلع عليه بتاريخ 2021-03-16.
  154. ^ "Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"". Federal Register. 13 يناير 2020. مؤرشف من الأصل في 2020-11-25. اطلع عليه بتاريخ 2020-11-28.
  155. ^ "Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog". 13 مايو 2019. مؤرشف من الأصل في 2019-05-14. اطلع عليه بتاريخ 2019-07-22.
  156. ^ "CCC Offers Draft 20-Year AI Roadmap; Seeks Comments". HPCwire. 14 مايو 2019. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2019-07-22.
  157. ^ "Non-Human Party". 2021. مؤرشف من الأصل في 2021-09-20. اطلع عليه بتاريخ 2021-09-19.
  158. ^ "Интеллектуальные правила". مؤرشف من الأصل في 2021-12-30. اطلع عليه بتاريخ 2024-10-22.
  159. ^ Grace، Katja؛ Salvatier، John؛ Dafoe، Allan؛ Zhang، Baobao؛ Evans، Owain (03 مايو 2018). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  160. ^ "China wants to shape the global future of artificial intelligence". MIT Technology Review (بالإنجليزية). Archived from the original on 2020-11-20. Retrieved 2020-11-29.
  161. ^ Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Francesca; Schafer, Burkhard (01 Dec 2018). "AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations". Minds and Machines (بالإنجليزية). 28 (4): 689–707. DOI:10.1007/s11023-018-9482-5. ISSN:1572-8641. PMC:6404626. PMID:30930541. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  162. ^ "Joanna J. Bryson". WIRED. مؤرشف من الأصل في 2023-03-15. اطلع عليه بتاريخ 2023-01-13.
  163. ^ "New Artificial Intelligence Research Institute Launches" (بالإنجليزية). 20 Nov 2017. Archived from the original on 2020-09-18. Retrieved 2021-02-21.
  164. ^ James J. Hughes؛ LaGrandeur, Kevin، المحررون (15 مارس 2017). Surviving the machine age: intelligent technology and the transformation of human work. Cham, Switzerland: Palgrave Macmillan Cham. ISBN:978-3-319-51165-8. OCLC:976407024. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2020-11-29.
  165. ^ Danaher, John (2019). Automation and utopia: human flourishing in a world without work. Cambridge, Massachusetts: Harvard University Press. ISBN:978-0-674-24220-3. OCLC:1114334813. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  166. ^ "TUM Institute for Ethics in Artificial Intelligence officially opened". www.tum.de (بالإنجليزية). Archived from the original on 2020-12-10. Retrieved 2020-11-29.
  167. ^ Communications, Paul Karoff SEAS (25 Jan 2019). "Harvard works to embed ethics in computer science curriculum". Harvard Gazette (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2023-04-06.
  168. ^ Lee, Jennifer (08 Feb 2020). "When Bias Is Coded Into Our Technology". NPR (بالإنجليزية). Archived from the original on 2020-02-08. Retrieved 2021-12-22.
  169. ^ "How one conference embraced diversity". Nature (بالإنجليزية). 564 (7735): 161–162. 12 Dec 2018. DOI:10.1038/d41586-018-07718-x. PMID:31123357. S2CID:54481549. Archived from the original on 2024-10-27. Retrieved 2024-10-22.
  170. ^ Roose, Kevin (30 Dec 2020). "The 2020 Good Tech Awards". The New York Times (بالإنجليزية). ISSN:0362-4331. Retrieved 2021-12-21.{{استشهاد بخبر}}: صيانة الاستشهاد: url-status (link)
  171. ^ "Women in AI (#WAI)". Women in AI (WAI) (بالإنجليزية). Archived from the original on 2024-10-27. Retrieved 2024-10-09.
  172. ^ Lodge، Paul (2014). "Leibniz's Mill Argument Against Mechanical Materialism Revisited". Ergo, an Open Access Journal of Philosophy. ج. 1 ع. 20201214. DOI:10.3998/ergo.12405314.0001.003. hdl:2027/spo.12405314.0001.003. ISSN:2330-4014. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  173. ^ Bringsjord، Selmer؛ Govindarajulu، Naveen Sundar (2020)، "Artificial Intelligence"، في Zalta، Edward N.؛ Nodelman، Uri (المحررون)، The Stanford Encyclopedia of Philosophy (ط. Summer 2020)، Metaphysics Research Lab, Stanford University، مؤرشف من الأصل في 2022-03-08، اطلع عليه بتاريخ 2023-12-08
  174. ^ Jr, Henry C. Lucas (29 Apr 1999). Information Technology and the Productivity Paradox: Assessing the Value of Investing in IT (بالإنجليزية). Oxford University Press. ISBN:978-0-19-802838-3. Archived from the original on 2024-09-25. Retrieved 2024-02-21.
  175. ^ Asimov، Isaac (2008). I, Robot. New York: Bantam. ISBN:978-0-553-38256-3.
  176. ^ Bryson، Joanna؛ Diamantis، Mihailis؛ Grant، Thomas (سبتمبر 2017). "Of, for, and by the people: the legal lacuna of synthetic persons". Artificial Intelligence and Law. ج. 25 ع. 3: 273–291. DOI:10.1007/s10506-017-9214-9. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  177. ^ "Principles of robotics". UK's EPSRC. سبتمبر 2010. مؤرشف من الأصل في 2018-04-01. اطلع عليه بتاريخ 2019-01-10.
  178. ^ Yudkowsky، Eliezer (يوليو 2004). "Why We Need Friendly AI". 3 laws unsafe. مؤرشف من الأصل في 2012-05-24. اطلع عليه بتاريخ 2024-10-22.
  179. ^ Aleksander, Igor (Mar 2017). "Partners of Humans: A Realistic Assessment of the Role of Robots in the Foreseeable Future". Journal of Information Technology (بالإنجليزية). 32 (1): 1–9. DOI:10.1057/s41265-016-0032-4. ISSN:0268-3962. S2CID:5288506. Archived from the original on 2024-02-21. Retrieved 2024-02-21.
  180. ^ "Evolving Robots Learn To Lie To Each Other". Popular Science. مؤرشف من الأصل في 2009-08-28. اطلع عليه بتاريخ 2024-10-22.
  181. ^ Bassett، Caroline؛ Steinmueller، Ed؛ Voss، Georgina. "Better Made Up: The Mutual Influence of Science Fiction and Innovation". Nesta. مؤرشف من الأصل في 2024-05-03. اطلع عليه بتاريخ 2024-05-03.
  182. ^ Velasco, Guille (04 May 2020). "Science-Fiction: A Mirror for the Future of Humankind". IDEES (بالإنجليزية). Archived from the original on 2021-04-22. Retrieved 2023-12-08.
  183. ^ Hodges, A. (2014), Alan Turing: The Enigma, Vintage, London, p. 334
  184. ^ A. M. Turing (1936). "On computable numbers, with an application to the Entscheidungsproblem." in Proceedings of the London Mathematical Society, 2 s. vol. 42 (1936–1937), pp. 230–265.
  185. ^ "Love, Death & Robots season 2, episode 1 recap - "Automated Customer Service"". Ready Steady Cut (بالإنجليزية). 14 May 2021. Archived from the original on 2021-12-21. Retrieved 2021-12-21.
  186. ^ Cave, Stephen؛ Dihal, Kanta؛ Dillon, Sarah، المحررون (14 فبراير 2020). AI narratives: a history of imaginative thinking about intelligent machines (ط. First). Oxford: Oxford University Press. ISBN:978-0-19-258604-9. OCLC:1143647559. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2020-11-11.
  187. ^ Jerreat-Poole، Adam (1 فبراير 2020). "Sick, Slow, Cyborg: Crip Futurity in Mass Effect". Game Studies. ج. 20. ISSN:1604-7982. مؤرشف من الأصل في 2020-12-09. اطلع عليه بتاريخ 2020-11-11.
  188. ^ ""Detroit: Become Human" Will Challenge your Morals and your Humanity". Coffee or Die Magazine (بالإنجليزية). 06 Aug 2018. Archived from the original on 2021-12-09. Retrieved 2021-12-07.
  189. ^ Cerqui, Daniela; Warwick, Kevin (2008), "Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal?", Philosophy and Design (بالإنجليزية), Dordrecht: Springer Netherlands, pp. 185–195, DOI:10.1007/978-1-4020-6591-0_14, ISBN:978-1-4020-6590-3, Archived from the original on 2021-03-18, Retrieved 2020-11-11
  190. ^ Cave، Stephen؛ Dihal، Kanta (6 أغسطس 2020). "The Whiteness of AI". Philosophy & Technology. ج. 33 ع. 4: 685–703. DOI:10.1007/s13347-020-00415-6. S2CID:225466550. مؤرشف من الأصل في 2024-01-28. اطلع عليه بتاريخ 2024-10-22.