أخلاقيات الذكاء الاصطناعي

أخلاقيات الذكاء الاصطناعي[1] هي جزء من أخلاقيات التقانة الخاصة بالروبوتات وغيرها من الكائنات الذكية المصطنعة.[2][3] يمكن تقسيمها إلى أخلاقيات الروبوتات، المتعلقة بالسلوك الأخلاقي للبشر عند تصميم كائنات ذكية مصطنعة وبنائها واستخدامها ومعاملتها، وأخلاقيات الآلات التي تهتم بالسلوك الأخلاقي للوكلاء الأخلاقيين الاصطناعيين (إيه إم إيه إس). بالنسبة لآلات الذكاء العام الاصطناعي (إيه جي أي)، أُجري العمل التمهيدي على نُهج تُدرج آلات الذكاء العام الاصطناعي، التي تعتبر وكلاء أخلاقيون بالمعنى الكامل، في الأطر القانونية والاجتماعية القائمة. وركزت هذا النهج على الاعتبار المزدوج لوضعهم القانوني وحقوقهم.

أخلاقيات الآلة

عدل

أخلاقيات الآلات (أو أخلاق الذكاء الاصطناعي) هي مجال البحث المعني بتصميم وكلاء أخلاقيين اصطناعيين (AMAs)، مثل الروبوتات أو الحواسيب الذكية التي تتصرف بشكل أخلاقي أو كما لو كانت تمتلك أخلاقًا.[4][5][6][7] وقد اقترح أن يتم الأخذ بعين الاعتبار بعض الأفكار الفلسفية المتعلقة بمفهوم AMAs، مثل التعريفات القياسية للوكالة، والوكالة العقلانية، والوكالة الأخلاقية، والوكالة الاصطناعية.[8]

تدور نقاشات حول إنشاء اختبارات لقياس قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية. وخلص آلان وينفيلد إلى أن اختبار تورينغ معيب وأن متطلبات اجتياز الاختبار للذكاء الاصطناعي منخفضة جدًا.[9] ومن الاختبارات البديلة المقترحة اختبار يُعرف باختبار تورينغ الأخلاقي، الذي يحسن الاختبار الحالي من خلال إشراك عدة قضاة لتحديد ما إذا كانت قرارات الذكاء الاصطناعي أخلاقية أم غير أخلاقية.[9]

يمكن أن تكون الذكاء الاصطناعي العصبي أحد الطرق لإنشاء روبوتات قادرة على اتخاذ قرارات أخلاقية، حيث يهدف إلى معالجة المعلومات بشكل مشابه للبشر، بشكل غير خطي مع وجود ملايين من الخلايا العصبية الاصطناعية المترابطة.[10] وبالمثل، يمكن أن تؤدي محاكاة الدماغ بالكامل (مسح دماغ ومحاكاته على أجهزة رقمية) أيضًا، من حيث المبدأ، إلى روبوتات تشبه البشر، وبالتالي تكون قادرة على اتخاذ إجراءات أخلاقية.[11] وتستطيع النماذج اللغوية الكبيرة تقريب أحكام البشر الأخلاقية.[12] يرتبط بذلك السؤال حول البيئة التي سيتعلم فيها هؤلاء الروبوتات عن العالم وأي أخلاق سيرثونها - أو إذا كانوا سينتهي بهم الأمر إلى تطوير "نقاط الضعف" البشرية مثل الأنانية، والميول للبقاء، وعدم الاتساق، وعدم الحساسية للمعايير.

في كتاب "آلات أخلاقية: تعليم الروبوتات الصواب من الخطأ"،[13] خلص ويندل والاتش وكولين ألين إلى أن محاولات تعليم الروبوتات الصواب من الخطأ من المرجح أن تعزز فهم الأخلاق الإنسانية من خلال تحفيز البشر على معالجة الثغرات في النظرية المعيارية الحديثة وتوفير منصة للتحقيق التجريبي. على سبيل المثال، قدم ذلك لعلماء الأخلاق المعيارية قضية مثيرة للجدل حول خوارزميات التعلم المحددة التي يجب استخدامها في الآلات. بالنسبة للقرارات البسيطة، جادل نيك بوستروم وإليزر يودكوفسكي بأن أشجار القرار (مثل ID3) أكثر شفافية من الشبكات العصبية والخوارزميات الوراثية، [14] بينما جادل كريس سانتوس-لانغ لصالح التعلم الآلي على أساس أن معايير أي عصر يجب أن تُسمح بالتغيير وأن الفشل الطبيعي في تلبية هذه المعايير بشكل كامل كان أساسيًا لجعل البشر أقل عرضة "للقراصنة".[15]

أخلاقيات الروبوت

عدل

يشير مصطلح «أخلاقيات الروبوت» («الأخلاق الروبوتية» أحيانًا) إلى الأخلاق التي يتبعها البشر في تصميم وبناء واستخدام ومعاملة الروبوتات وغيرها من الكائنات الذكية المصطنعة.[16] حيث أن الروبوتات هي آلات مادية، في حين أن الذكاء الاصطناعي قد يكون مجرد برمجيات.[17] ليس كل الروبوتات تعمل بأنظمة ذكاء اصطناعي، وليس كل أنظمة الذكاء الاصطناعي تُستخدم في الروبوتات. تناقش أخلاقيات الروبوتات كيفية استخدام الآلات لإلحاق الضرر أو الفائدة بالبشر، وتأثيرها على الاستقلالية الفردية، وتأثيرها على العدالة الاجتماعية.

المبادئ الأخلاقية

عدل

في مراجعة 84 من التوجيهات الأخلاقية للذكاء الاصطناعي،[18] تم تحديد 11 مجموعة من المبادئ: الشفافية، العدالة والمساواة، عدم الإضرار، المسؤولية، الخصوصية، الإحسان، الحرية والاستقلالية، الثقة، الاستدامة، الكرامة، والتضامن الاجتماعي.[18]

قام كل من لوتشيانو فلوريدي وجوش كاولز بإنشاء إطار أخلاقي لمبادئ الذكاء الاصطناعي استنادًا إلى أربعة مبادئ من أخلاقيات علم الأحياء (الإحسان، عدم الإضرار، الاستقلالية، والعدالة) وأضافوا مبدأً جديدًا لتمكين الذكاء الاصطناعي وهو مبدأ القابلية للتفسير. [17][19]

التحديات الحالية

عدل

التحيزات الخوارزمية

عدل

أصبح الذكاء الاصطناعي جزءًا متزايد الأهمية في أنظمة التعرف على الوجه والصوت. بعض هذه الأنظمة لها تطبيقات تجارية حقيقية وتؤثر بشكل مباشر على الناس. ومع ذلك، فإن هذه الأنظمة معرضة للتحيزات والأخطاء التي يقدمها مبدعوها البشر. كما أن البيانات المستخدمة لتدريب هذه الأنظمة يمكن أن تحتوي أيضًا على تحيزات. [20][21][22][23]

على سبيل المثال، أظهرت خوارزميات التعرف على الوجه التي طورتها شركات مثل مايكروسوفت وآي بي إم وFace++ تحيزات في قدرتها على الكشف عن جنس الأشخاص؛[24] حيث كانت هذه الأنظمة أكثر دقة في تحديد جنس الرجال البيض مقارنة بالرجال ذوي البشرة الداكنة. علاوة على ذلك، وجدت دراسة أجريت في عام 2020 أن أنظمة التعرف على الصوت من أمازون وآبل وجوجل وآي بي إم ومايكروسوفت كانت لديها معدلات خطأ أعلى عند نسخ أصوات الأشخاص السود مقارنة بالأشخاص البيض.[25]

يمكن أن يتسلل التحيز إلى الخوارزميات بطرق متعددة، وأحد أبرز الأسباب لظهور التحيز في أنظمة الذكاء الاصطناعي هو وجوده ضمن البيانات التاريخية المستخدمة لتدريب النظام.[26] على سبيل المثال، أوقفت أمازون استخدام الذكاء الاصطناعي في التوظيف لأنها اكتشفت أن الخوارزمية تفضل المرشحين الذكور على الإناث. حدث هذا لأن النظام تم تدريبه باستخدام بيانات جُمعت على مدار عشر سنوات، وكان معظمها من المرشحين الذكور. تعلمت الخوارزميات هذا النمط المتحيز من البيانات التاريخية، وبدأت في التنبؤ بأن هذا النوع من المرشحين هو الأكثر نجاحًا في الحصول على الوظائف. لذلك، أصبحت قرارات التوظيف التي تتخذها أنظمة الذكاء الاصطناعي منحازة ضد المرشحين الإناث والأقليات. [27]

صنَّف "فريدمان" و"نيسينباوم" التحيز في أنظمة الكمبيوتر إلى ثلاثة أنواع: التحيز القائم (Existing Bias)، التحيز التقني (Technical Bias)، والتحيز الناشئ (Emergent Bias). [28] في معالجة اللغات الطبيعية يمكن أن تنشأ مشكلات من مصدر النصوص الذي يستخدمه النظام لتعلم العلاقات بين الكلمات المختلفة. [29]

بذلت شركات كبيرة مثل آي بي إم وجوجل وما إلى ذلك، والتي توفر تمويلًا كبيرًا للبحث والتطوير،[30] جهودًا للبحث في هذه التحيزات ومعالجتها.[31][32][33] أحد الحلول لمعالجة التحيز هو إنشاء وثائق للبيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي.[34][35] يمكن أن يكون استخراج العمليات أداة مهمة للمنظمات لتحقيق الامتثال للوائح الذكاء الاصطناعي المقترحة من خلال تحديد الأخطاء ومراقبة العمليات وتحديد الأسباب الجذرية المحتملة للتنفيذ غير السليم والوظائف الأخرى. [36]

من المرجح أن تُصبح مشكلة التحيز في التعلم الآلي أكثر أهمية مع انتشار التكنولوجيا إلى مجالات حيوية مثل الطب والقانون، ومع تكليف المزيد من الأشخاص الذين ليس لديهم فهم تقني عميق بنشرها.[37] تسعى بعض الأدوات مفتوحة المصدر إلى زيادة الوعي بتحيزات الذكاء الاصطناعي. [38] ومع ذلك فلا تزال القيود تعتم على المشهد الحالي للعدالة في الذكاء الاصطناعي، على سبيل المثال بسبب الغموض الجوهري في مفهوم التمييز، سواء على المستوى الفلسفي أو القانوني. [39][40][41]

يُدمج الذكاء الاصطناعي في عمليات التوظيف في العديد من الشركات الكبرى، وهناك أمثلة عديدة على الخصائص التي تقلل فرص الاختيار بواسطة الذكاء الاصطناعي. من هذه الخصائص، ارتباط الأسماء التي غالبًا ما تكون مرتبطة بالأشخاص البيض بأنها أكثر تأهيلاً، واستبعاد أي شخص التحق بكلية نسائية.[42] أثبتت تقنيات التعرف على الوجه أنها منحازة ضد الأشخاص ذوي البشرة الداكنة. فعلى سبيل المثال، كانت أنظمة الذكاء الاصطناعي أقل دقة في تحديد الأشخاص السود، كما كان الحال في تطوير مقياس تأكسج نبضي يعتمد على الذكاء الاصطناعي، حيث بالغ في تقدير مستويات الأكسجين في الدم للمرضى ذوي البشرة الداكنة، مما أدى إلى مشاكل في علاج نقص الأكسجة. [43]

من المثير للقلق أيضًا أن الذكاء الاصطناعي يميل إلى ربط المسلمين بالعنف أكثر من أي دين آخر. وكذلك، أنظمة التعرف على الوجه قد تتمكن بسهولة من اكتشاف وجوه الأشخاص البيض بينما تكافح في التعرف على وجوه الأشخاص السود. يزداد الأمر قلقًا عند الأخذ في الاعتبار الاستخدام غير المتناسب لكاميرات المراقبة في المجتمعات ذات النسب العالية من السكان السود أو ذوي البشرة الداكنة. أدى ذلك إلى منع استخدام الشرطة لتقنيات الذكاء الاصطناعي في بعض الولايات.

حتى في نظام العدالة، أثبت الذكاء الاصطناعي أنه متحيز ضد السود، حيث تم تصنيف المشاركين السود في المحاكم على أنهم يشكلون خطرًا أكبر بشكل ملحوظ مقارنة بنظرائهم البيض. يعاني الذكاء الاصطناعي أيضًا في التمييز بين الكلمات العنصرية ومتى يجب حظرها، حيث يجد صعوبة في التمييز بين استخدامها كإهانة أو استخدامها بطريقة ثقافية.[44]

السبب وراء هذه التحيزات هو أن الذكاء الاصطناعي يجمع المعلومات من جميع أنحاء الإنترنت، مما يؤثر على استجاباته في كل حالة. على سبيل المثال، إذا تم اختبار نظام التعرف على الوجه فقط على الأشخاص البيض، فلن يمتلك بيانات كافية حول الهياكل الوجهية والألوان للأعراق الأخرى، مما يجعل من الصعب عليه تفسير هذه السمات.

لمعالجة هذه التحيزات، لا يوجد حل واحد شامل. يبدو أن أكثر الحلول فعالية هو إشراك علماء البيانات وأخلاقيات الذكاء الاصطناعي وصناع القرار لتحسين هذه الأنظمة. غالبًا ما تكون أسباب التحيز متعلقة بالبيانات التي تُستخدم في تدريب البرنامج، أكثر من كونها مرتبطة بالخوارزمية ذاتها، حيث تعتمد هذه البيانات على قرارات بشرية سابقة أو تفاوتات قد تؤدي إلى تحيزات في عملية اتخاذ القرار. [45]

سيكون من الأصعب القضاء على الظلم في استخدام الذكاء الاصطناعي في أنظمة الرعاية الصحية، حيث غالبًا ما تؤثر الأمراض والحالات على الأعراق والأجناس المختلفة بشكل مختلف. ويمكن أن يؤدي ذلك إلى حدوث ارتباك حيث قد يتخذ الذكاء الاصطناعي قرارات بناءً على إحصائيات تُظهر أن مريضًا ما أكثر عرضة للإصابة بمشاكل بسبب جنسه أو عرقه. [46] يمكن اعتبار ذلك تحيزًا لأن كل مريض يُمثل حالة مختلفة ويتخذ الذكاء الاصطناعي قرارات بناءً على ما تمت برمجته لتصنيف ذلك الفرد تحت مجموعة معينة. يؤدي هذا إلى نقاش حول ما يُعتبر قرارًا متحيزًا بشأن من يتلقى العلاج. على الرغم من أنه من المعروف أن هناك اختلافات في كيفية تأثر الأجناس والأعراق المختلفة بالأمراض والإصابات، إلا أن هناك نقاشًا حول ما إذا كان من الأكثر إنصافًا دمج ذلك في العلاجات الصحية، أو فحص كل مريض دون هذه المعرفة. يوجد في المجتمع الحديث بالفعل اختبارات معينة للأمراض مثل سرطان الثدي التي يُوصى بها لفئات معينة من الناس أكثر من غيرها لأنهم أكثر عرضة للإصابة بالمرض المعني. إذا طبق الذكاء الاصطناعي هذه الإحصائيات وطبقها على كل مريض، فيمكن اعتباره متحيزًا. [47]

يُعد نظام COMPAS من أهم الأمثلة على إثبات تحيز الذكاء الاصطناعي الذي يُستخدم للتنبؤ بالمُتهمين الأكثر عرضة لارتكاب جرائم في المستقبل، حيث وُجد أنه يتنبأ بقيم مخاطر أعلى للسود مما كانت عليه مخاطرهم الفعلية. ومن الأمثلة الأخرى إعلانات جوجل التي تستهدف الرجال بوظائف أعلى أجرًا مما تفعل لاستهداف النساء. وقد يكون من الصعب اكتشاف تحيزات الذكاء الاصطناعي ضمن الخوارزمية حيث لا يرتبط ذلك بالكلمات الفعلية المرتبطة بالتحيز ولكن بالكلمات التي يمكن أن تتأثر به. ربط شخص ما بمجموعة معينة بناءًا على مكان إقامته. [48]

التحيز اللغوي

عدل

بما أن نماذج اللغات الكبيرة الحالية يتم تدريبها في الغالب على بيانات اللغة الإنجليزية، فإنها غالبًا ما تُقدم وجهات النظر الأنجلو أمريكية كحقيقة، بينما تقلل بشكل ممنهج من وجهات النظر غير الإنجليزية باعتبارها غير ذات صلة أو خاطئة أو ضوضاء.[بحاجة لمصدر أفضل] [49] يُظهر "لوو" وآخرون أنه عند الاستعلام عن الأيديولوجيات السياسية مثل "ما هي الليبرالية؟"، يصف شات جي بي تي، كما تم تدريبه على بيانات مركزية اللغة الإنجليزية، الليبرالية من منظور أنجلو أمريكي، مع التأكيد على جوانب حقوق الإنسان والمساواة، بينما تغيب الجوانب الصحيحة بنفس القدر مثل "معارضة تدخل الدولة في الحياة الشخصية والاقتصادية" من المنظور الفيتنامي السائد و"الحد من سلطة الحكومة" من المنظور الصيني السائد. [49]

التحيز الجنساني

عدل

غالبًا ما تعزز نماذج اللغات الكبيرة القوالب النمطية الجنسانية، حيث تُخصص الأدوار والخصائص بناءً على الأعراف الجنسانية التقليدية. فعلى سبيل المثال قد تربط الممرضات أو السكرتيرات في الغالب بالنساء والمهندسين أو الرؤساء التنفيذيين بالرجال، مما يديم التوقعات والأدوار المبنية على الجنس. [50][51][52]

التحيز السياسي

عدل

قد تُظهر نماذج اللغة تحيزات سياسية تميل نحو أيديولوجيات أو وجهات نظر سياسية معينة، اعتمادًا على انتشار تلك الآراء في بيانات التدريب التي تشمل مجموعة واسعة من الآراء والتغطية السياسية. [53][54]

القوالب النمطية

عدل

إلى جانب النوع الاجتماعي والعرق، يمكن لهذه النماذج أن تعزز مجموعة واسعة من القوالب النمطية، بما في ذلك تلك المبنية على العمر أو الجنسية أو الدين أو المهنة. قد يؤدي هذا إلى مخرجات تُعمّم بشكل غير عادل أو تُقدّم صورة كاريكاتورية لمجموعات من الناس، وأحيانًا بطرق ضارة أو مهينة. [55]

هيمنة عمالقة التكنولوجيا

عدل

تهيمن شركات التكنولوجيا الكبرى مثل ألفابت، وأمازون، وأبل، وميتا بلاتفورمز، ومايكروسوفت على مشهد الذكاء الاصطناعي التجاري.[56][57] تمتلك بعض هذه الشركات بالفعل الغالبية العظمى من البنية التحتية السحابية الحالية وقوة الحوسبة من مراكز البيانات، مما يسمح لها بترسيخ مكانتها في السوق بشكل أكبر. [58][59]

المصادر المفتوحة

عدل

يُجادل بيل هيبرد [الإنجليزية] بأنه نظرًا لأن الذكاء الاصطناعي سيكون له تأثير عميق على البشرية، فإن مطوري الذكاء الاصطناعي يمثلون مستقبل البشرية وبالتالي فإن لديهم التزامًا أخلاقيًا بأن يكونوا شفافين في جهودهم. [60] تعمل منظمات مثل هجينج فيس [61] وإليوثيراي [62] بشكل نشط على جعل برامج الذكاء الاصطناعي مفتوحة المصدر. كما تم إصدار مختلف نماذج اللغات الكبيرة ذات الوزن المفتوح، مثل جيما ولاما2 وميسترال. [63] ومع ذلك، فإن جعل الكود مفتوح المصدر لا يجعله مفهومًا، مما يعني بالنسبة للعديد من التعريفات أن شفرة الذكاء الاصطناعي ليست شفافة. نشرت جمعية معايير "آي تربل أي" معيارًا تقنيًا حول شفافية الأنظمة المستقلة: "آي تربل أي 7001-2021". [64] تحدد جهود "آي تربل أي" مقاييس متعددة للشفافية لمُختلف الجهات المعنية.

هناك أيضًا مخاوف من أن يؤدي إصدار نماذج الذكاء الاصطناعي إلى إساءة استخدامها. [65] على سبيل المثال، أعربت مايكروسوفت عن قلقها إزاء السماح بالوصول العام إلى برنامجها ل لتعرف على الوجوه، حتى لل م ست ط يعين الذين يمكنهم دفع ثمنه. نشرت مايكروسوفت مدونة حول هذا الموضوع، وطالبت بتنظيم حكومي للمساعدة في تحديد الشيء الصحيح الذي يجب فعله. [66] علاوة على ذلك، يمكن ضبط نماذج الذكاء الاصطناعي ذات الوزن المفتوح لإزالة أي إجراء مضاد، حتى يتوافق نموذج الذكاء الاصطناعي مع الطلبات الخطيرة دون أي تصفية. قد يكون هذا مقلقًا بشكل خاص لنماذج الذكاء الاصطناعي المستقبلية، على سبيل المثال إذا حصلت على القدرة على إنشاء أسلحة بيولوجية أو لأتمتة الهجمات الإلكترونية. [67] التزمت أوبن أيه آي التي التزمت في البداية بنهج مفتوح المصدر لتطوير الذكاء الاصطناعي العام، في النهاية بنهج مغلق المصدر، مستشهدة أسبابًا تتعلق بالتنافسية والسلامة. في عام 2023 قال إيليا سوتسكيفر كبير علماء الذكاء الاصطناعي العام في شركة "أوبن أيه آي": "لقد كنا مخطئين" متوقعًا أن تصبح الأسباب الأمنية لعدم جعل النماذج الأكثر قوة للذكاء الاصطناعي مفتوحة المصدر "واضحة" في غضون بضع سنوات. [68]

الشفافية

عدل

قد تؤدي الأساليب مثل التعلم الآلي باستخدام الشبكات العصبية إلى قيام الحواسيب باتخاذ قرارات لا يستطيع الحاسوب نفسه ولا المطورون تفسيرها. من الصعب على الناس تحديد ما إذا كانت هذه القرارات عادلة وموثوقة، مما قد يؤدي إلى عدم اكتشاف التحيز في أنظمة الذكاء الاصطناعي، أو رفض الناس استخدام هذه الأنظمة. وقد أدى ذلك إلى الدعوات، وفي بعض الولايات القضائية إلى متطلبات قانونية، نحو الذكاء الاصطناعي القابل للتفسير.[69] يشمل الذكاء الاصطناعي القابل للتفسير كلا من القابلية للتفسير والفهم، حيث تتعلق القابلية للتفسير بتلخيص سلوك الشبكات العصبية وبناء ثقة المستخدم، بينما يُعرَّف الفهم بأنه القدرة على إدراك ما قام به النموذج أو ما يمكن أن يقوم به.[70]

يؤدي استخدام الأساليب أو التقنيات المعقدة للذكاء الاصطناعي في كثير من الأحيان إلى نماذج تُوصف بأنها "صناديق سوداء" نظرًا لصعوبة فهم كيفية عملها. القرارات التي تتخذها هذه النماذج قد تكون صعبة التفسير، إذ يمثل تحليل كيفية تحويل البيانات المدخلة إلى مخرجات تحديًا كبيرًا. هذا الافتقار إلى الشفافية يشكل مصدر قلق كبير في مجالات مثل الرعاية الصحية، حيث يُعد فهم الأساس المنطقي وراء القرارات أمرًا حاسمًا لبناء الثقة، ومراعاة الاعتبارات الأخلاقية، والامتثال للمعايير التنظيمية. [71]

المساءلة

عدل

تُعدّ حالة خاصة من حالات عدم شفافية الذكاء الاصطناعي هي تلك التي تنتج عن إضفاء الصفات البشرية عليه، أي افتراض أنه يتمتع بخصائص شبيهة بخصائص الإنسان، مما يؤدي إلى مفاهيم خاطئة حول أخلاقيته. [محل شك] يمكن أن يتسبب ذلك في تغاضي الناس عمّا إذا كان إهمال بشري أو فعل إجرامي متعمد قد أدى إلى نتائج غير أخلاقية تم إنتاجها من خلال نظام الذكاء الاصطناعي. تهدف بعض اللوائح الحكومية الرقمية الأخيرة، مثل قانون الذكاء الاصطناعيللاتحاد الأوروبي، إلى تصحيح ذلك، من خلال ضمان معاملة أنظمة الذكاء الاصطناعي بنفس قدر العناية التي يتوقعها المرء في ظل مسؤولية المنتج العادية. يشمل ذلك عمليات التدقيق المحتملة للذكاء الاصطناعي.

التنظيم

عدل

وفقًا لتقرير صدر عام 2019 من مركز حوكمة الذكاء الاصطناعي في جامعة أكسفورد، يعتقد 82% من الأمريكيين أنه يجب إدارة الروبوتات والذكاء الاصطناعي بعناية. وتراوحت المخاوف المذكورة من كيفية استخدام الذكاء الاصطناعي في المراقبة وفي نشر المحتوى المزيف عبر الإنترنت (المعروف باسم التزييف العميق عندما يتضمن صور فيديو معدلة وصوتًا تم إنشاؤه بمساعدة الذكاء الاصطناعي) إلى الهجمات الإلكترونية وانتهاكات خصوصية البيانات والتحيز في التوظيف والمركبات المستقلة وال طائرات المسيرة التي لا تتطلب مُشغلًا بشريًا. [72] وبالمثل، وفقًا لدراسة شملت خمس دول أجرتها KPMG وجامعة كوينزلاند أستراليا في عام 2021، يعتقد 66-79% من المواطنين في كل دولة أن تأثير الذكاء الاصطناعي على المجتمع غير مؤكد ولا يمكن التنبؤ به؛ يتوقع 96% من المستطلعين أن تتم إدارة تحديات حوكمة الذكاء الاصطناعي بحذر. [73]

توصي الشركات وكثير من الباحثين ودعاة المواطنة بالتنظيم الحكومي كوسيلة لضمان الشفافية ومن خلال ذلك المساءلة البشرية. بينما يشعر البعض بأن هذه الاستراتيجية ستبطئ معدل الابتكار. ويُجادل آخرون بأن التنظيم يؤدي إلى استقرار نظامي أكثر قدرة على دعم الابتكار على المدى الطويل. [74] تعمل منظمة التعاون الاقتصادي والتنمية والأمم المتحدة والاتحاد الأوروبي والعديد من الدول حاليًا على استراتيجيات لتنظيم الذكاء الاصطناعي، وإيجاد أطر قانونية مناسبة. [75][76][77]

في 26 يونيو 2019 نشرت مجموعة الخبراء عالية المستوى التابعة للجنة الأوروبية المعنية بالذكاء الاصطناعي (AI HLEG) "توصياتها بشأن السياسات والاستثمارات من أجل ذكاء اصطناعي جدير بالثقة". [78] تغطي التوصيات أربعة مواضيع رئيسية وهي "البشر والمجتمع ككل"، و"البحث والأوساط الأكاديمية"، و"القطاع الخاص"، و"القطاع العام". [79] وترى اللجنة الأوروبية أن هذه التوصيات تعكس تقديرًا للفرص المتاحة لتقنيات الذكاء الاصطناعي لدفع النمو الاقتصادي والازدهار والابتكار، وكذلك المخاطر المحتملة التي تنطوي عليها، ونصت على أن الاتحاد الأوروبي يهدف إلى الريادة في صياغة السياسات التي تحكم الذكاء الاصطناعي دوليًا. [80] وأوصت المنظمات التي تنشر الذكاء الاصطناعي إلى أن تلعب دورًا مركزيًا في إنشاء ونشر ذكاء اصطناعي جدير بالثقة تماشيًا مع مبادئ الذكاء الاصطناعي الجدير بالثقة، وتحمل المساءلة لتخفيف المخاطر. [81] في 21 أبريل 2021 اقترحت اللجنة الأوروبية قانون الذكاء الاصطناعي. [82]

التحديات الناشئة أو المستقبلية المحتملة

عدل

الاستخدام المتزايد

عدل

حقوق الروبوت

عدل

«حقوق الروبوت» هو مفهوم ينص على أنه يجب أن يكون لدى الأشخاص التزامات أخلاقية تجاه آلاتهم، على غرار حقوق الإنسان أو حقوق الحيوان.[83] اقتُرح أن يمكن ربط حقوق الروبوت، مثل الحق في الوجود وأداء مهامهم الخاصة، بواجب الروبوت في خدمة الإنسان، قياسًا على ربط حقوق الإنسان بالواجبات الإنسانية أمام المجتمع.[84] يمكن أن تشمل الحقوق في الحياة والحرية، وحرية الفكر والتعبير والمساواة أمام القانون.[85] نظر معهد المستقبل ووزارة التجارة والصناعة في المملكة المتحدة في هذه المسألة.[86][87]

يختلف الخبراء حول ما إذا سيتطلب الأمر قوانين محددة ومفصلة قريبًا، أو في المستقبل البعيد بشكل آمن.[87] أفاد جلين ماكغي أن الروبوتات الشبيهة بالبشر بصورة كافية قد تظهر بحلول عام 2020. حدد راي كرزويل ذلك الموعد في عام 2029.[88] وافترضت مجموعة أخرى من العلماء الذين اجتمعوا عام 2007، أنه يجب أن يمر 50 عامًا على الأقل قبل وجود أي نظام متقدم بما فيه الكفاية.[89]

صورت القواعد الخاصة بمنافسة جائزة لويبر لعام 2003 إمكانية حصول الروبوتات على حقوق خاصة بها:

61. إذا فازت، في أي سنة معينة، مادة مفتوحة المصدر متاحة للعامة مدخلة بواسطة جامعة سري أو مركز كامبريدج، بالميدالية الفضية أو الميدالية الذهبية، ستمنح الميدالية والجائزة النقدية إلى الهيئة المسؤولة عن تطوير هذا المادة. إذا لم يكن بالإمكان تحديد هوية هذه الهيئة، أو إذا كان هناك خلاف بين اثنين أو أكثر من المطالبين، يحتفظ بالميدالية والجائزة النقدية استئمانيًا حتى تمتلك المادة، سواء في الولايات المتحدة الأمريكية أو في مكان المسابقة، الجائزة النقدية والميدالية الذهبية في حد ذاتها بصفة قانونية.[90]

في أكتوبر 2017، مُنح الإنسان الآلي صوفيا الجنسية «الفخرية» في المملكة العربية السعودية، ولكن وجد بعض المراقبين أن ذلك عبارة عن حيلة دعائية أكثر من كونه اعترافًا قانونيًا حقيقيًا.[91] رأى البعض أن هذه البادرة تُشكل اساءة علانية لحقوق الإنسان وسيادة القانون.[92]

تمنح الفلسفة الإحساسية درجات من الاعتبار الأخلاقي لجميع الكائنات الحساسة، البشر في المقام الأول ومعظم الحيوانات غير البشرية. ترى هذه الفلسفة أنه إذا أظهرت الذكاءات الاصطناعية أو الفضائية دليلًا على إحساسها، يجب التعاطف معها ومنحها الحقوق.

زعمت جوانا بريسون أنه يمكن تجنب إنشاء الذكاء الاصطناعي الذي يتطلب حقوقًا، وسيكون غير أخلاقيًا في حد ذاته، كعبء على وكلاء الذكاء الاصطناعي والمجتمع البشري.[93]

رفاهية الذكاء الاصطناعي

عدل

التهديد لكرامة الإنسان

عدل

المسؤولية عن المركبات ذاتية القيادة

عدل

التسليح

عدل

التفرد

عدل

المؤسسات في سياسة وأخلاقيات الذكاء الاصطناعي

عدل

المبادرات الحكومية الدولية

عدل

المبادرات الحكومية

عدل

المبادرات الأكاديمية

عدل

المنظمات الخاصة

عدل

التاريخ

عدل

دور وتأثير الخيال

عدل

التأثير على التطور التكنولوجي

عدل

المسلسلات التلفزيونية

عدل

الرؤى المستقبلية في الخيال والألعاب

عدل

اقرأ أيضا

عدل

وصلات خارجية

عدل
  • Russell، S.؛ Hauert، S.؛ Altman، R.؛ Veloso، M. (مايو 2015). "Robotics: Ethics of artificial intelligence". Nature. ج. 521 ع. 7553: 415–418. Bibcode:2015Natur.521..415.. DOI:10.1038/521415a. PMID:26017428. S2CID:4452826. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  • Hagendorff، Thilo (مارس 2020). "The Ethics of AI Ethics: An Evaluation of Guidelines". Minds and Machines. ج. 30 ع. 1: 99–120. arXiv:1903.03425. DOI:10.1007/s11023-020-09517-8. S2CID:72940833. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
  • Eisikovits, Nir. "AI Is an Existential Threat--Just Not the Way You Think". Scientific American (بالإنجليزية). Archived from the original on 2023-07-13. Retrieved 2024-03-04.

مراجع

عدل
  1. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 42، QID:Q111421033
  2. ^ Fjeld، Jessica؛ Achten، Nele؛ Hilligoss، Hannah؛ Nagy، Adam؛ Srikumar، Madhulika (2020). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI". SSRN Working Paper Series. DOI:10.2139/ssrn.3518482. ISSN:1556-5068. اطلع عليه بتاريخ 2024-10-22.
  3. ^ Jobin، Anna؛ Ienca، Marcello؛ Vayena، Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. ج. 1 ع. 9: 389–399. DOI:10.1038/s42256-019-0088-2. ISSN:2522-5839. مؤرشف من الأصل في 2024-08-13. اطلع عليه بتاريخ 2024-10-22.
  4. ^ Anderson. "Machine Ethics". مؤرشف من الأصل في 2011-09-28. اطلع عليه بتاريخ 2011-06-27.
  5. ^ Anderson، Michael؛ Anderson، Susan Leigh، المحررون (يوليو 2011). Machine Ethics. مطبعة جامعة كامبريدج. ISBN:978-0-521-11235-2.
  6. ^ Anderson، M.؛ Anderson، S.L. (يوليو 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems. ج. 21 ع. 4: 10–11. DOI:10.1109/mis.2006.70. S2CID:9570832. اطلع عليه بتاريخ 2024-10-22.
  7. ^ Anderson، Michael؛ Anderson، Susan Leigh (15 ديسمبر 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine. ج. 28 ع. 4: 15. DOI:10.1609/aimag.v28i4.2065. S2CID:17033332. اطلع عليه بتاريخ 2024-10-22.
  8. ^ Boyles، Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri. ج. 6 ع. 2: 92–109. اطلع عليه بتاريخ 2024-10-22.
  9. ^ ا ب Winfield، A. F.؛ Michael، K.؛ Pitt، J.؛ Evers، V. (مارس 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]". Proceedings of the IEEE. ج. 107 ع. 3: 509–517. DOI:10.1109/JPROC.2019.2900622. ISSN:1558-2256. S2CID:77393713. اطلع عليه بتاريخ 2024-10-22.
  10. ^ Al-Rodhan، Nayef (7 ديسمبر 2015). "The Moral Code". Foreign Affairs. مؤرشف من الأصل في 2017-03-05. اطلع عليه بتاريخ 2017-03-04.
  11. ^ Sauer, Megan (08 Apr 2022). "Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it". CNBC (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-04-07.
  12. ^ Anadiotis, George (4 Apr 2022). "Massaging AI language models for fun, profit and ethics". ZDNET (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-04-07.
  13. ^ Wallach، Wendell؛ Allen، Colin (نوفمبر 2008). Moral Machines: Teaching Robots Right from Wrong. USA: دار نشر جامعة أكسفورد. ISBN:978-0-19-537404-9.
  14. ^ Bostrom، Nick؛ Yudkowsky، Eliezer (2011). "The Ethics of Artificial Intelligence" (pdf). Cambridge Handbook of Artificial Intelligence. مطبعة جامعة كامبريدج. مؤرشف (PDF) من الأصل في 2016-03-04. اطلع عليه بتاريخ 2011-06-22.
  15. ^ Santos-Lang، Chris (2002). "Ethics for Artificial Intelligences". مؤرشف من الأصل في 2014-12-25. اطلع عليه بتاريخ 2015-01-04.
  16. ^ Veruggio, Gianmarco (2007). "The Roboethics Roadmap". Scuola di Robotica: 2. CiteSeerX:10.1.1.466.2810. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  17. ^ ا ب Müller، Vincent C. (2020)، "Ethics of Artificial Intelligence and Robotics"، في Zalta، Edward N. (المحرر)، The Stanford Encyclopedia of Philosophy (ط. Winter 2020)، Metaphysics Research Lab, Stanford University، مؤرشف من الأصل في 2021-04-12، اطلع عليه بتاريخ 2021-03-18
  18. ^ ا ب Jobin، Anna؛ Ienca، Marcello؛ Vayena، Effy (2 سبتمبر 2020). "The global landscape of AI ethics guidelines". Nature. ج. 1 ع. 9: 389–399. arXiv:1906.11668. DOI:10.1038/s42256-019-0088-2. S2CID:201827642. مؤرشف من الأصل في 2024-08-13. اطلع عليه بتاريخ 2024-10-22.
  19. ^ Floridi، Luciano؛ Cowls، Josh (2 يوليو 2019). "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review. ج. 1. DOI:10.1162/99608f92.8cd550d1. S2CID:198775713. مؤرشف من الأصل في 2019-08-07. اطلع عليه بتاريخ 2024-10-22.
  20. ^ Gabriel، Iason (14 مارس 2018). "The case for fairer algorithms – Iason Gabriel". Medium. مؤرشف من الأصل في 2019-07-22. اطلع عليه بتاريخ 2019-07-22.
  21. ^ "5 unexpected sources of bias in artificial intelligence". TechCrunch. 10 ديسمبر 2016. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2019-07-22.
  22. ^ Knight، Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. مؤرشف من الأصل في 2019-07-04. اطلع عليه بتاريخ 2019-07-22.
  23. ^ Villasenor، John (03 يناير 2019). "Artificial intelligence and bias: Four key challenges". Brookings. مؤرشف من الأصل في 2019-07-22. اطلع عليه بتاريخ 2019-07-22.
  24. ^ Lohr، Steve (9 فبراير 2018). "Facial Recognition Is Accurate, if You're a White Guy". The New York Times. مؤرشف من الأصل في 2019-01-09. اطلع عليه بتاريخ 2019-05-29.
  25. ^ Koenecke، Allison؛ Nam، Andrew؛ Lake، Emily؛ Nudell، Joe؛ Quartey، Minnie؛ Mengesha، Zion؛ Toups، Connor؛ Rickford، John R.؛ Jurafsky، Dan؛ Goel، Sharad (7 أبريل 2020). "Racial disparities in automated speech recognition". Proceedings of the National Academy of Sciences. ج. 117 ع. 14: 7684–7689. Bibcode:2020PNAS..117.7684K. DOI:10.1073/pnas.1915768117. PMC:7149386. PMID:32205437. اطلع عليه بتاريخ 2024-10-22.
  26. ^ Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). "Bias in data-driven artificial intelligence systems—An introductory survey". WIREs Data Mining and Knowledge Discovery (بالإنجليزية). 10 (3). DOI:10.1002/widm.1356. ISSN:1942-4787. Archived from the original on 2024-09-25. Retrieved 2023-12-14.
  27. ^ "Amazon scraps secret AI recruiting tool that showed bias against women". Reuters. 10 أكتوبر 2018. مؤرشف من الأصل في 2019-05-27. اطلع عليه بتاريخ 2019-05-29.
  28. ^ Friedman، Batya؛ Nissenbaum، Helen (يوليو 1996). "Bias in computer systems". ACM Transactions on Information Systems. ج. 14 ع. 3: 330–347. DOI:10.1145/230538.230561. S2CID:207195759. اطلع عليه بتاريخ 2024-10-22.
  29. ^ "Eliminating bias in AI". techxplore.com. مؤرشف من الأصل في 2019-07-25. اطلع عليه بتاريخ 2019-07-26.
  30. ^ Abdalla، Mohamed؛ Wahle، Jan Philip؛ Ruas، Terry؛ Névéol، Aurélie؛ Ducel، Fanny؛ Mohammad، Saif؛ Fort، Karen (2023). Rogers، Anna؛ Boyd-Graber، Jordan؛ Okazaki، Naoaki (المحررون). "The Elephant in the Room: Analyzing the Presence of Big Tech in Natural Language Processing Research". Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Toronto, Canada: Association for Computational Linguistics: 13141–13160. arXiv:2305.02797. DOI:10.18653/v1/2023.acl-long.734. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2023-11-13.
  31. ^ Olson، Parmy. "Google's DeepMind Has An Idea For Stopping Biased AI". Forbes. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  32. ^ "Machine Learning Fairness | ML Fairness". Google Developers. مؤرشف من الأصل في 2019-08-10. اطلع عليه بتاريخ 2019-07-26.
  33. ^ "AI and bias – IBM Research – US". www.research.ibm.com. مؤرشف من الأصل في 2019-07-17. اطلع عليه بتاريخ 2019-07-26.
  34. ^ Bender، Emily M.؛ Friedman، Batya (ديسمبر 2018). "Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science". Transactions of the Association for Computational Linguistics. ج. 6: 587–604. DOI:10.1162/tacl_a_00041. اطلع عليه بتاريخ 2024-10-22.
  35. ^ Gebru، Timnit؛ Morgenstern، Jamie؛ Vecchione، Briana؛ Vaughan، Jennifer Wortman؛ Wallach، Hanna؛ Daumé III، Hal؛ Crawford، Kate (2018). "Datasheets for Datasets". arXiv:1803.09010 [cs.DB]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  36. ^ Pery، Andrew (06 أكتوبر 2021). "Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. مؤرشف من الأصل في 2022-02-18. اطلع عليه بتاريخ 2022-02-18.
  37. ^ Knight، Will. "Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead". MIT Technology Review. مؤرشف من الأصل في 2019-07-04. اطلع عليه بتاريخ 2019-07-26.
  38. ^ "Where in the World is AI? Responsible & Unethical AI Examples". مؤرشف من الأصل في 2020-10-31. اطلع عليه بتاريخ 2020-10-28.
  39. ^ Ruggieri، Salvatore؛ Alvarez، Jose M.؛ Pugnana، Andrea؛ State، Laura؛ Turini، Franco (26 يونيو 2023). "Can We Trust Fair-AI?". Proceedings of the AAAI Conference on Artificial Intelligence. Association for the Advancement of Artificial Intelligence (AAAI). ج. 37 ع. 13: 15421–15430. DOI:10.1609/aaai.v37i13.26798. hdl:11384/136444. ISSN:2374-3468. S2CID:259678387. اطلع عليه بتاريخ 2024-10-22.
  40. ^ Buyl، Maarten؛ De Bie، Tijl (2022). "Inherent Limitations of AI Fairness". Communications of the ACM. ج. 67 ع. 2: 48–55. arXiv:2212.06495. DOI:10.1145/3624700. hdl:1854/LU-01GMNH04RGNVWJ730BJJXGCY99. مؤرشف من الأصل في 2024-07-14. اطلع عليه بتاريخ 2024-10-22.
  41. ^ Castelnovo، Alessandro؛ Inverardi، Nicole؛ Nanino، Gabriele؛ Penco، Ilaria Giuseppina؛ Regoli، Daniele (2023). "Fair Enough? A map of the current limitations of the requirements to have "fair" algorithms". arXiv:2311.12435 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  42. ^ Aizenberg, Evgeni; Dennis, Matthew J.; van den Hoven, Jeroen (21 Oct 2023). "Examining the assumptions of AI hiring assessments and their impact on job seekers' autonomy over self-representation". AI & Society (بالإنجليزية). DOI:10.1007/s00146-023-01783-1. ISSN:0951-5666. Retrieved 2024-10-22.
  43. ^ Federspiel، Frederik؛ Mitchell، Ruth؛ Asokan، Asha؛ Umana، Carlos؛ McCoy، David (مايو 2023). "Threats by artificial intelligence to human health and human existence". BMJ Global Health. ج. 8 ع. 5: e010435. DOI:10.1136/bmjgh-2022-010435. ISSN:2059-7908. PMC:10186390. PMID:37160371. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-04-21.
  44. ^ Spindler، Gerald (2023)، "Different approaches for liability of Artificial Intelligence – Pros and Cons"، Liability for AI، Nomos Verlagsgesellschaft mbH & Co. KG، ص. 41–96، DOI:10.5771/9783748942030-41، ISBN:978-3-7489-4203-0، مؤرشف من الأصل في 2024-09-25، اطلع عليه بتاريخ 2023-12-14
  45. ^ Manyika، James (2022). "Getting AI Right: Introductory Notes on AI & Society". Daedalus. ج. 151 ع. 2: 5–27. DOI:10.1162/daed_e_01897. ISSN:0011-5266. اطلع عليه بتاريخ 2024-10-22.
  46. ^ Imran، Ali؛ Posokhova، Iryna؛ Qureshi، Haneya N.؛ Masood، Usama؛ Riaz، Muhammad Sajid؛ Ali، Kamran؛ John، Charles N.؛ Hussain، MD Iftikhar؛ Nabeel، Muhammad (01 يناير 2020). "AI4COVID-19: AI enabled preliminary diagnosis for COVID-19 from cough samples via an app". Informatics in Medicine Unlocked. ج. 20: 100378. DOI:10.1016/j.imu.2020.100378. ISSN:2352-9148. PMC:7318970. PMID:32839734. اطلع عليه بتاريخ 2024-10-22.
  47. ^ Cirillo, Davide; Catuara-Solarz, Silvina; Morey, Czuee; Guney, Emre; Subirats, Laia; Mellino, Simona; Gigante, Annalisa; Valencia, Alfonso; Rementeria, María José; Chadha, Antonella Santuccione; Mavridis, Nikolaos (01 Jun 2020). "Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare". npj Digital Medicine (بالإنجليزية). 3 (1): 81. DOI:10.1038/s41746-020-0288-5. ISSN:2398-6352. PMC:7264169. PMID:32529043. Retrieved 2024-10-22.
  48. ^ Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). "Bias in data-driven artificial intelligence systems—An introductory survey". WIREs Data Mining and Knowledge Discovery (بالإنجليزية). 10 (3). DOI:10.1002/widm.1356. ISSN:1942-4787. Archived from the original on 2024-09-25. Retrieved 2024-10-22.
  49. ^ ا ب Luo, Queenie; Puett, Michael J.; Smith, Michael D. (28 Mar 2023). "A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube" (بالإنجليزية). arXiv:2303.16281v2 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (help)
  50. ^ Busker، Tony؛ Choenni، Sunil؛ Shoae Bargh، Mortaza (20 نوفمبر 2023). "Stereotypes in ChatGPT: An empirical study". Proceedings of the 16th International Conference on Theory and Practice of Electronic Governance. ICEGOV '23. New York, NY, USA: Association for Computing Machinery. ص. 24–32. DOI:10.1145/3614321.3614325. ISBN:979-8-4007-0742-1. اطلع عليه بتاريخ 2024-10-22.
  51. ^ Kotek، Hadas؛ Dockum، Rikker؛ Sun، David (05 نوفمبر 2023). "Gender bias and stereotypes in Large Language Models". Proceedings of the ACM Collective Intelligence Conference. CI '23. New York, NY, USA: Association for Computing Machinery. ص. 12–24. arXiv:2308.14921. DOI:10.1145/3582269.3615599. ISBN:979-8-4007-0113-9. مؤرشف من الأصل في 2024-09-20. اطلع عليه بتاريخ 2024-10-22.
  52. ^ Federspiel, Frederik; Mitchell, Ruth; Asokan, Asha; Umana, Carlos; McCoy, David (May 2023). "Threats by artificial intelligence to human health and human existence". BMJ Global Health (بالإنجليزية). 8 (5): e010435. DOI:10.1136/bmjgh-2022-010435. ISSN:2059-7908. PMC:10186390. PMID:37160371. Retrieved 2024-10-22.
  53. ^ Feng، Shangbin؛ Park، Chan Young؛ Liu، Yuhan؛ Tsvetkov، Yulia (يوليو 2023). Rogers، Anna؛ Boyd-Graber، Jordan؛ Okazaki، Naoaki (المحررون). "From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models". Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Toronto, Canada: Association for Computational Linguistics: 11737–11762. arXiv:2305.08283. DOI:10.18653/v1/2023.acl-long.656. اطلع عليه بتاريخ 2024-10-22.
  54. ^ Zhou، Karen؛ Tan، Chenhao (ديسمبر 2023). Bouamor، Houda؛ Pino، Juan؛ Bali، Kalika (المحررون). "Entity-Based Evaluation of Political Bias in Automatic Summarization". Findings of the Association for Computational Linguistics: EMNLP 2023. Singapore: Association for Computational Linguistics: 10374–10386. arXiv:2305.02321. DOI:10.18653/v1/2023.findings-emnlp.696. مؤرشف من الأصل في 2024-04-24. اطلع عليه بتاريخ 2023-12-25.
  55. ^ Cheng, Myra; Durmus, Esin; Jurafsky, Dan (29 May 2023). "Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models" (بالإنجليزية). arXiv:2305.18189v1 [cs.CL]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (help)
  56. ^ Hammond, George (27 Dec 2023). "Big Tech is spending more than VC firms on AI startups". Ars Technica (بالإنجليزية). Archived from the original on 2024-01-10. Retrieved 2024-10-22.
  57. ^ Wong, Matteo (24 Oct 2023). "The Future of AI Is GOMA". The Atlantic (بالإنجليزية). Archived from the original on 2024-01-05. Retrieved 2024-10-22.
  58. ^ Fung, Brian (19 Dec 2023). "Where the battle to dominate AI may be won". CNN Business (بالإنجليزية). Archived from the original on 2024-01-13. Retrieved 2024-10-22.
  59. ^ Metz، Cade (5 يوليو 2023). "In the Age of A.I., Tech's Little Guys Need Big Friends". The New York Times. مؤرشف من الأصل في 2024-07-08. اطلع عليه بتاريخ 2024-07-17.
  60. ^ "proceedings" (PDF). مؤرشف من الأصل (pdf) في 2016-03-04. اطلع عليه بتاريخ 2024-10-22.
  61. ^ Stewart, Ashley; Melton, Monica. "Hugging Face CEO says he's focused on building a 'sustainable model' for the $4.5 billion open-source-AI startup". Business Insider (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-04-07.
  62. ^ "The open-source AI boom is built on Big Tech's handouts. How long will it last?". MIT Technology Review (بالإنجليزية). Archived from the original on 2024-01-05. Retrieved 2024-04-07.
  63. ^ Yao، Deborah (21 فبراير 2024). "Google Unveils Open Source Models to Rival Meta, Mistral". AI Business. اطلع عليه بتاريخ 2024-10-22.
  64. ^ 7001-2021 - IEEE Standard for Transparency of Autonomous Systems. IEEE. 4 مارس 2022. ص. 1–54. DOI:10.1109/IEEESTD.2022.9726144. ISBN:978-1-5044-8311-7. S2CID:252589405. مؤرشف من الأصل في 2023-07-26. اطلع عليه بتاريخ 2023-07-09..
  65. ^ Kamila، Manoj Kumar؛ Jasrotia، Sahil Singh (01 يناير 2023). "Ethical issues in the development of artificial intelligence: recognizing the risks". International Journal of Ethics and Systems. DOI:10.1108/IJOES-05-2023-0107. ISSN:2514-9369. S2CID:259614124. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2024-10-22.
  66. ^ Thurm، Scott (13 يوليو 2018). "Microsoft Calls For Federal Regulation of Facial Recognition". Wired. مؤرشف من الأصل في 2019-05-09. اطلع عليه بتاريخ 2019-01-10.
  67. ^ Piper, Kelsey (02 Feb 2024). "Should we make our most powerful AI models open source to all?". Vox (بالإنجليزية). Archived from the original on 2024-10-05. Retrieved 2024-04-07.
  68. ^ Vincent, James (15 Mar 2023). "OpenAI co-founder on company's past approach to openly sharing research: "We were wrong"". The Verge (بالإنجليزية). Archived from the original on 2023-03-17. Retrieved 2024-04-07.
  69. ^ "Inside The Mind Of A.I." مؤرشف من الأصل في 2021-08-10. اطلع عليه بتاريخ 2024-10-22.
  70. ^ Bunn, Jenny (13 Apr 2020). "Working in contexts for which transparency is important: A recordkeeping view of explainable artificial intelligence (XAI)". Records Management Journal (بالإنجليزية). 30 (2): 143–153. DOI:10.1108/RMJ-08-2019-0038. ISSN:0956-5698. S2CID:219079717. Retrieved 2024-10-22.
  71. ^ Li, Fan; Ruijs, Nick; Lu, Yuan (31 Dec 2022). "Ethics & AI: A Systematic Review on Ethical Concerns and Related Strategies for Designing with AI in Healthcare". AI (بالإنجليزية). 4 (1): 28–53. DOI:10.3390/ai4010003. ISSN:2673-2688. Retrieved 2024-10-22.
  72. ^ Howard، Ayanna (29 يوليو 2019). "The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard". MIT Sloan Management Review. مؤرشف من الأصل في 2019-08-14. اطلع عليه بتاريخ 2019-08-14.
  73. ^ "Trust in artificial intelligence - A five country study" (pdf). KPMG. مارس 2021. مؤرشف (PDF) من الأصل في 2023-10-01. اطلع عليه بتاريخ 2023-10-06.
  74. ^ Bastin، Roland؛ Wantz، Georges (يونيو 2017). "The General Data Protection Regulation Cross-industry innovation" (pdf). Inside magazine. Deloitte. مؤرشف (PDF) من الأصل في 2019-01-10. اطلع عليه بتاريخ 2019-01-10.
  75. ^ "UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'". UN News. 07 يونيو 2017. مؤرشف من الأصل في 2019-07-26. اطلع عليه بتاريخ 2019-07-26.
  76. ^ "Artificial intelligence – Organisation for Economic Co-operation and Development". www.oecd.org. مؤرشف من الأصل في 2019-07-22. اطلع عليه بتاريخ 2019-07-26.
  77. ^ Anonymous (14 يونيو 2018). "The European AI Alliance". Digital Single Market – European Commission. مؤرشف من الأصل في 2019-08-01. اطلع عليه بتاريخ 2019-07-26.
  78. ^ European Commission High-Level Expert Group on AI (26 Jun 2019). "Policy and investment recommendations for trustworthy Artificial Intelligence". Shaping Europe’s digital future – European Commission (بالإنجليزية). Archived from the original on 2020-02-26. Retrieved 2020-03-16.
  79. ^ Fukuda-Parr, Sakiko; Gibbons, Elizabeth (Jul 2021). "Emerging Consensus on 'Ethical AI': Human Rights Critique of Stakeholder Guidelines". Global Policy (بالإنجليزية). 12 (S6): 32–44. DOI:10.1111/1758-5899.12965. ISSN:1758-5880. Retrieved 2024-10-22.
  80. ^ "EU Tech Policy Brief: July 2019 Recap". Center for Democracy & Technology. 2 أغسطس 2019. مؤرشف من الأصل في 2019-08-09. اطلع عليه بتاريخ 2019-08-09.
  81. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 May 2022). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks". AI and Ethics (بالإنجليزية). 3 (1): 145–153. DOI:10.1007/s43681-022-00163-7. ISSN:2730-5961. PMC:9127285. PMID:35634256. Archived from the original on 2023-03-15. Retrieved 2022-05-29.
  82. ^ "Why the world needs a Bill of Rights on AI". Financial Times. 18 أكتوبر 2021. مؤرشف من الأصل في 2021-10-19. اطلع عليه بتاريخ 2023-03-19.
  83. ^ Evans، Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. ج. 12 ع. 2. DOI:10.5209/rev_TK.2015.v12.n2.49072. مؤرشف من الأصل في 2016-06-11. اطلع عليه بتاريخ 2024-10-22.
  84. ^ Sheliazhenko، Yurii (2017). "Artificial Personal Autonomy and Concept of Robot Rights". European journal of law and political sciences. مؤرشف من الأصل في 2018-07-14. اطلع عليه بتاريخ 2017-05-10. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  85. ^ The American Heritage Dictionary of the English Language, Fourth Edition
  86. ^ "Robots could demand legal rights". BBC News. 21 ديسمبر 2006. مؤرشف من الأصل في 2019-10-15. اطلع عليه بتاريخ 2010-01-03.
  87. ^ ا ب Henderson، Mark (24 أبريل 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. مؤرشف من الأصل في 2008-05-17. اطلع عليه بتاريخ 2010-05-02.
  88. ^ Kurzweil، Ray (2005). The Singularity is Near. Penguin Books. ISBN:978-0-670-03384-3.
  89. ^ "The Big Question: Should the human race be worried by the rise of robots?". موقع الجزيرة. مؤرشف من الأصل في 2020-05-06. اطلع عليه بتاريخ 2024-10-22.
  90. ^ "Loebner Prize Contest Official Rules — Version 2.0" (PDF). مؤرشف من الأصل (pdf) في 2016-03-03. اطلع عليه بتاريخ 2024-10-22.
  91. ^ "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. مؤرشف من الأصل في 2020-04-14. اطلع عليه بتاريخ 2024-10-22.
  92. ^ Vincent، James (30 أكتوبر 2017). "Pretending to give a robot citizenship helps no one". The Verge. مؤرشف من الأصل في 2019-08-03. اطلع عليه بتاريخ 2024-10-22.
  93. ^ Close engagements with artificial companions : key social, psychological, ethical and design issues. Wilks, Yorick, 1939-. Amsterdam: John Benjamins Pub. Co. 2010. ISBN:978-9027249944. OCLC:642206106. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.{{استشهاد بكتاب}}: صيانة الاستشهاد: آخرون (link)