تنظيم الذكاء الاصطناعي

تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين القطاع العام لتعزيز وتنظيم الذكاء الاصطناعي؛[1] وبالتالي فهو مرتبط بالتنظيم الأوسع للخوارزميات.[2][3] يعد المشهد التنظيمي والسياسي للذكاء الاصطناعي مسألةً ناشئةً في الولايات القضائية العالمية، بما في ذلك في الاتحاد الأوروبي.[4][5] يُعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به، ولكنه يمثل تحديًا.[6][7] يمكن أيضًا اعتبار تنظيم الذكاء الاصطناعي من خلال آليات مثل لوحات المراجعة وسيلة اجتماعية للتعامل مع مشكلة التحكم في الذكاء الاصطناعي.[8][9][10]

منذ عام 2016، تمّ نشر العديد من الإرشادات الأخلاقية لـلذّكاء الاصطناعيّ من أجل الحفاظ على السّيطرة الاجتماعية على التكنولوجيا.[11] يعتبر التنظيم ضروريًا لـ كلّ من تعزيز ابتكار الذّكاء الاصطناعيّ وإدارة المخاطر المرتبطة به.

علاوةً على ذلك، تلعب المنظّمات التي تنشر الذّكاء الاصطناعيّ دورًا محوريًا في إنشاء وتنفيذ ذكاء اصطناعيّ جدير بـلثّقة، والالتزام بـلمبادئ المثبتة، وتحمل مسؤولية التخفيف من المخاطر.[12]

خلفية

عدل

وفقًا لـ مؤشّر الذّكاء الاصطناعيّ لعام 2023 لجامعة ستانفورد، قفز العدد السّنويّ لمشاريع القوانين التي تذكر "الذّكاء الاصطناعيّ" التي تمّ إقرارها في 127 دولةً تمّ مسحها من مشروع قانون واحد في عام 2016 إلى 37 مشروع قانون في عام 2022.[13][14]

في عام 2017 دعا إيلون مسك إلى تنظيم تطوير الذكاء الاصطناعي.[15] وفقًا للإذاعة الوطنية العامة، كان الرئيس التنفيذي لشركة تيسلا «من الواضح أنه ليس سعيدًا» للدفاع عن التدقيق الحكومي الذي يمكن أن يؤثر على صناعته الخاصة، لكنه يعتقد أن مخاطر الانتقال تمامًا بدون إشراف عالية جدًا: «عادةً ما تُوضع اللوائح عندما تحدث الكثير من الأشياء السيئة، هناك احتجاج عام، وبعد سنوات عديدة أُنشئت وكالة تنظيمية لتنظيم هذه الصناعة. يستغرق الأمر أبد الدهر. كان هذا في الماضي سيئًا ولكنه لم يكن شيئًا يمثل خطرًا أساسيًا على وجود الحضارة».[15] وردًا على ذلك، عبّر بعض السياسيين عن شكوكهم بشأن حكمة تنظيم التكنولوجيا التي لا تزال قيد التطوير.[16] ردًا على مقترحات كلًا من مسك وفبرواري لعام 2017 من قبل مشرعي الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي والروبوتات، جادل الرئيس التنفيذي لشركة إنتل بريان كرزانيتش بأن الذكاء الاصطناعي في مهده وأنه من السابق لأوانه تنظيم التكنولوجيا.[17] بدلًا من محاولة تنظيم التكنولوجيا نفسها، يقترح بعض العلماء إلى حدٍ ما وضع معايير مشتركة بما في ذلك متطلبات اختبار وشفافية الخوارزميات، ربما بالاشتراك مع شكل من أشكال الضمان.[18]

في استطلاع أجرته إبسوس عام 2022، اختلفت المواقف تجاه الذّكاء الاصطناعيّ بشكل كبير حسب الدّولة؛ وافق 78% من المواطنين الصّينيين، ولكن 35% فقط من الأمريكيين، على أنّ "المنتجات والخدمات التي تستخدم الذّكاء الاصطناعيّ لها فوائد أكثر من العيوب".[13] وجد استطلاع أجرته كل من رويترز وإبسوس عام 2023 أنّ 61% من الأمريكيين يتّفقون، و22% يختلفون، على أنّ الذّكاء الاصطناعيّ يشكّل مخاطر على البشرية.[19] في استطلاع أجرته فوكس نيوز عام 2023 اعتقد 35% من الأمريكيين أنّه "مهمّ جدًا"، واعتقد 41% إضافيون أنّه "مهمّ إلى حدّ ما"، أن تقوم الحكومة الفيدرالية بتنظّم الذّكاء الاصطناعيّ، مقابل 13% أجابوا "ليس مهمًا جدًا" و8% أجابوا "ليس مهمًا على الإطلاق".[20][21]

طبيعة ونطاق التنظيم

عدل

تركز اعتبارات السياسة العامة بشكلٍ عام على الآثار التقنية والاقتصادية وأنظمة الذكاء الاصطناعي[22] الجديرة بالثقة والتي تركز على الإنسان. يمكن تقسيم قوانين ولوائح منظمة العفو الدولية إلى ثلاثة مواضيع رئيسية، وهي إدارة نظم المعلومات الاستخبارية المستقلة، والمسؤولية والمساءلة عن الأنظمة، وقضايا الخصوصية والسلامة.[6] أصبح تطوير استراتيجيات القطاع العام لإدارة وتنظيم الذكاء الاصطناعي ضروريًا بشكلٍ متزايد على المستوى المحلي والوطني[23] والدولي[24] وفي مجموعة متنوعة من المجالات، من إدارة الخدمة العامة[25] والمساءلة[26] لإنفاذ القانون،[24] والقطاع المالي،[23] والروبوتات،[27] والقوات المسلحة[28] والأمن القومي،[29] والقانون الدولي.[30][31]

وجهات نظر

عدل

تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين للقطاع العام لتعزيز وتنظيم الذكاء الاصطناعي. [32] يُعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به. [33][4][34] تُركِز اعتبارات الإدارة العامة والسياسة بشكل عام على الآثار التقنية والاقتصادية وعلى أنظمة الذكاء الاصطناعي الجديرة بالثقة والمركزة على الإنسان، [35] ويؤخذ في الاعتبار أيضًا تنظيم الذكاءات الفائقة الاصطناعية. [36] يُركز النهج الأساسي للتنظيم على مخاطر وتحيزات خوارزميات التعلم الآلي على مستوى بيانات الإدخال واختبار الخوارزميات ونموذج القرار. كما يُركز على إمكانية تفسير المخرجات. [4]

كانت هناك اقتراحات قانونية صارمة وقانونية مرنة لتنظيم الذكاء الاصطناعي.[37] لاحظ بعض الفقهاء القانونيين أن النهج القانونية الصارمة لتنظيم الذكاء الاصطناعي تواجه تحديات كبيرة.[38][39] من بينها أن تقنية الذكاء الاصطناعي تتطور بسرعة مما يؤدي إلى عدم مواكبة القوانين واللوائح التقليدية للتطبيقات الناشئة ومخاطرها وفوائدها. [38][39] وبالمثل، فإن تنوع تطبيقات الذكاء الاصطناعي يشكل تحديًا لوكالات التنظيم الحالية، والتي غالبًا ما يكون لديها نطاق قضائي محدود.[38] يُجادل بعض الفقهاء القانونيين بأن النهج القانونية المرنة لتنظيم الذكاء الاصطناعي واعدة لأنه يمكن تكييف القوانين المرنة بشكل أكثر مرونةً لتلبية احتياجات تقنية الذكاء الاصطناعي الناشئة والمتطورة والتطبيقات الوليدة.[38][39] غالبًا ما تفتقر النهج القانونية المرنة إلى إمكانات كبيرة للإنفاذ. [38][40]

اقترح كل من "كاسون شميت"، و"ميغان دوير"، و"جينيفر فاغنر" إنشاء منظم شبه حكومي من خلال الاستفادة من حقوق الملكية الفكرية في كائنات ذكاء اصطناعي معينة مثل نماذج الذكاء الاصطناعي ومجموعات البيانات التدريبية وتفويض حقوق الإنفاذ إلى كيان إنفاذ معين. [29] وجادلوا بأنه يمكن ترخيص الذكاء الاصطناعي بموجب شروط تتطلب الالتزام بممارسات أخلاقية محددة ومدونات قواعد سلوك مثل مبادئ القانون المرن.[29]

أصدرت منظمات الشباب البارزة التي تركز على الذكاء الاصطناعي مثل "Encode Justice" جداول أعمال شاملةً تدعو إلى لوائح أكثر صرامةً للذكاء الاصطناعي وشراكات بين القطاعين العام والخاص. [41][42]

يمكن أن ينبثق تنظيم الذكاء الاصطناعي من مبادئ أساسية، حيث حددت مراجعة شاملة لمركز "بيركمان كلاين" للإنترنت والمجتمع لعام 2020 ثمانية مبادئ أساسية وهي "الخصوصية، والمساءلة، والسلامة والأمن، والشفافية وإمكانية التفسير، والعدالة وعدم التمييز، والسيطرة البشرية على التكنولوجيا، والمسؤولية المهنية، واحترام القيم الإنسانية". [43] قُسمت قوانين ولوائح الذكاء الاصطناعي إلى ثلاثة مواضيع رئيسية وهي: حوكمة أنظمة الذكاء المستقلة، والمسؤولية والمساءلة عن الأنظمة، وقضايا الخصوصية والسلامة. [33]

يرى نهج الإدارة العامة علاقةً بين قانون ولوائح الذكاء الاصطناعي، وأخلاقيات الذكاء الاصطناعي، ومجتمع الذكاء الاصطناعي، المعرف على أنه استبدال القوى العاملة وتحويلها، والقبول الاجتماعي والثقة في الذكاء الاصطناعي، وتحويل التفاعل من الإنسان إلى الآلة. [44] يُعتبر تطوير استراتيجيات القطاع العام لإدارة وتنظيم الذكاء الاصطناعي ضروريًا على المستويات المحلية والوطنية والدولية، [45][24] وفي مجموعة متنوعة من المجالات مثل إدارة الخدمة العامة، [46] والمساءلة، [47] وإنفاذ القانون، [24][1] والرعاية الصحية (خاصةً مفهوم الضمان البشري)، [48][22][49][50][51] والقطاع المالي، [45] والروبوتات، [52][53] والمركبات ذاتية القيادة، [52] والجيش، [23] والأمن القومي، [54] والقانون الدولي. [55][56]

نشر هنري كيسنجر وإيريك شميت ودانيال هوتينلوشر بيانًا مشتركًا في نوفمبر 2021 بعنوان "أن تكون إنسانًا في عصر الذكاء الاصطناعي" داعين إلى لجنة حكومية لتنظيم الذكاء الاصطناعي. [57]

السيطرة على الذكاء الاصطناعي

عدل

يمكن اعتبار تنظيم الذكاء الاصطناعي وسيلة اجتماعية إيجابية لمعالجة مشكلة التحكم في الذكاء الاصطناعي (الحاجة إلى ضمان ذكاء اصطناعي مفيد طويل الأمد)، حيث تعتبر بعض الردود الاجتماعية الأخرى، مثل عدم اتخاذ أي إجراء أو الحظر، غير عملية. بينما تُعتبر بعض المقاربات الأخرى، كتعزيز القدرات البشرية من خلال تقنيات ما بعد الإنسانية مثل واجهات الدماغ والحاسوب، مكملات محتملة. [9][58] يُركز تنظيم الأبحاث المتعلقة بالذكاء الاصطناعي العام (AGI) على دور هيئات المراجعة من مستويات مختلفة، كالمستوى الجامعي أو الشركات أو حتى على المستوى الدولي، وعلى تشجيع الأبحاث المتعلقة بسلامة الذكاء الاصطناعي، [58] إلى جانب إمكانية تحقيق التقدم الفكري التفاضلي (أي إعطاء الأولوية لاستراتيجيات الحماية بدلاً من الاستراتيجيات المحفوفة بالمخاطر في تطوير الذكاء الاصطناعي) أو إجراء مراقبة جماعية دولية للتحكم في أسلحة الذكاء الاصطناعي العام.[9]

على سبيل المثال، تُعد "مربية الذكاء الاصطناعي العام" استراتيجية مقترحة للوقاية من إنشاء ذكاء اصطناعي خارق خطير ولمعالجة تهديدات أخرى رئيسية للرفاه البشري، مثل تقويض النظام المالي العالمي، حتى يمكن إنشاء ذكاء اصطناعي خارق آمن. وتشمل هذه الاستراتيجية إنشاء نظام ذكاء اصطناعي ذكي لكنه ليس خارقًا، مرتبط بشبكة مراقبة واسعة، بهدف مراقبة البشرية وحمايتها من الأخطار. [9] يُركز تنظيم الذكاء الاصطناعي الواعي أخلاقيًا على كيفية دمجه مع المجتمع البشري الحالي، ويمكن تقسيمه إلى اعتبارات تتعلق بوضعه القانوني وحقوقه الأخلاقية. ومع ذلك، يُنظر إلى تنظيم الذكاء الاصطناعي في بعض الأحيان على أنه مقيّد، وقد يؤدي إلى منع تطوير الذكاء الاصطناعي العام (AGI). [52]

التنظيم العالمي

عدل
 
تتفق المنظمات التي تم استطلاع آرائها بشكل كبير على أن الشركات التي تطور نماذج الأساس ستكون مسؤولة عن المخاطر المرتبطة بها (بدلاً من الشركات التي تستخدمها)، وأن هناك حاجة إلى حوكمة عالمية لمعالجة المخاطر الناجمة عن الذكاء الاصطناعي التوليدي.[59]

اقتُرح إنشاء مجلس إدارة عالمي لتنظيم تطوير الذكاء الاصطناعي في وقت مبكر على الأقل في عام 2017.[60] في ديسمبر 2018، أعلنت كندا وفرنسا عن خطط لجنة دولية للذكاء الاصطناعي المدعومة من جي 7، على غرار الفريق الدولي المعني بتغير المناخ، لدراسة الآثار العالمية للذكاء الاصطناعي على الناس والاقتصاد وتوجيه تنمية الذكاء الاصطناعي.[61] في عام 2019، تغير اسم الفريق إلى الشراكة العالمية بشأن الذكاء الاصطناعي، ولكن لم يُعتمد بعد من قبل الولايات المتحدة.[62][63]

تأسست "الشراكة العالمية للذكاء الاصطناعي [الإنجليزية]" (GPAI) في يونيو 2020 مُشيرة إلى ضرورة تطوير الذكاء الاصطناعي بما يتماشى مع حقوق الإنسان والقيم الديمقراطية لضمان ثقة الجمهور في التكنولوجيا، كما هو موضح في مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي لعام 2019. [64] تشمل الدول الـ 15 المؤسسة: أستراليا، وكندا، والاتحاد الأوروبي، وفرنسا، وألمانيا، والهند، وإيطاليا، واليابان، وجمهورية كوريا، والمكسيك، ونيوزيلندا، وسنغافورة، وسلوفينيا، والولايات المتحدة، والمملكة المتحدة. في عام 2023 بلغ عدد أعضاء الشراكة 29 دولة. [65] تستضيف منظمة التعاون الاقتصادي والتنمية أمانة الشراكة في باريس. تشمل ولاية الشراكة أربعة مواضيع، يدعم اثنان منها المركز الدولي للخبرة في مونتريال لتعزيز الذكاء الاصطناعي، وهما: الذكاء الاصطناعي المسؤول وحوكمة البيانات. كما يدعم مركز تميز موازٍ في باريس الموضوعين الآخرين حول مستقبل العمل والابتكار والتسويق التجاري. كما قامت الشراكة العالمية بدراسة كيفية تسخير الذكاء الاصطناعي للاستجابة لجائحة كوفيد-19. [64]

اعتمدت منظمة التعاون الاقتصادي والتنمية مبادئها للذكاء الاصطناعي في مايو 2019، ومبادئ الذكاء الاصطناعي لمجموعة العشرين في يونيو 2019. [66][67][68] أصدر المنتدى الاقتصادي العالمي في سبتمبر 2019 عشر إرشادات لـ "مشتريات الحكومة للذكاء الاصطناعي".[69] وفي فبراير 2020 نشر الاتحاد الأوروبي مسودة استراتيجية لتعزيز وتنظيم الذكاء الاصطناعي. [24]

في الأمم المتحدة، بدأت عدة جهات في الترويج لمناقشة جوانب تنظيم وسياسات الذكاء الاصطناعي، بما في ذلك مركز الذكاء الاصطناعي والروبوتات (UNICRI) التابع لمعهد الأمم المتحدة الإقليمي لبحوث الجريمة والعدالة.[54] أصدر المركز بالشراكة مع الإنتربول تقريرًا بعنوان "الذكاء الاصطناعي والروبوتات في إنفاذ القانون" في أبريل 2019، [70] وتقريرًا لاحقًا بعنوان "نحو ابتكار مسؤول في مجال الذكاء الاصطناعي" في مايو 2020. [1] في الجلسة العلمية الأربعين لليونسكو في نوفمبر 2019 بدأت المنظمة عملية تستمر لمدة عامين لتحقيق "أداة معيارية عالمية حول أخلاقيات الذكاء الاصطناعي". في إطار هذا الهدف، عُقدت منتديات ومؤتمرات لليونسكو حول الذكاء الاصطناعي لجمع آراء الأطراف المعنية. في سبتمبر 2020 أصدرت مجموعة الخبراء الخاصة باليونسكو مسودة نص توصية حول أخلاقيات الذكاء الاصطناعي تضمنت دعوة لسد الفجوات التشريعية.[71] وقدمت اليونسكو هذه الأداة الدولية بشأن أخلاقيات الذكاء الاصطناعي لاعتمادها في مؤتمرها العام في نوفمبر 2021 والتي أُعتمدت لاحقًا. [64][72] ورغم هذا التقدم الذي تحرزه الأمم المتحدة في إدارة الذكاء الاصطناعي على الصعيد العالمي، فإن قدرتها المؤسسية والقانونية على التعامل مع مخاطر الذكاء الاصطناعي العام لا تزال محدودة. [73]

أطلق الاتحاد الدولي للاتصالات بالشراكة مع 40 وكالة تابعة للأمم المتحدة مبادرة "الذكاء الاصطناعي من أجل الخير"، وهي منصة عالمية تهدف إلى تحديد التطبيقات العملية للذكاء الاصطناعي لتعزيز أهداف التنمية المستدامة للأمم المتحدة وتوسيع نطاق هذه الحلول لتحقيق تأثير عالمي. وهي منصة شاملة تركز على العمل العالمي لتطوير الذكاء الاصطناعي لتحقيق تأثير إيجابي على الصحة، والمناخ، والنوع الاجتماعي، والازدهار الشامل، والبنية التحتية المستدامة، وأولويات التنمية العالمية الأخرى. [74]

أشارت الأبحاث الحديثة إلى أن بعض الدول ستبدأ في استخدام الذكاء الاصطناعي كأداة للدفاع السيبراني الوطني، حيث يُعتبر الذكاء الاصطناعي عاملًا جديدًا في صناعة التسلح السيبراني، ويمكن استخدامه لأغراض الدفاع. لذلك يحث الأكاديميون على أن تقوم الدول بإنشاء لوائح لاستخدام الذكاء الاصطناعي مشابهة للوائح التي تنظم الصناعات العسكرية الأخرى. [75]

في 5 سبتمبر 2024 وقعت عدة دول "أول معاهدة دولية بشأن الذكاء الاصطناعي" بمشاركة دول مثل الولايات المتحدة وبريطانيا وأعضاء الاتحاد الأوروبي، بهدف حماية حقوق الإنسان وتعزيز الاستخدام المسؤول للذكاء الاصطناعي، رغم أن الخبراء أثاروا مخاوف بشأن مبادئها الواسعة واستثناءاتها. [76]

تنظيم إقليمي ووطني

عدل

يمثل الإطار التنظيمي والسياسي للذكاء الاصطناعي قضية ناشئة في مختلف الولايات القضائية الإقليمية والوطنية حول العالم، مثل الاتحاد الأوروبي وروسيا.[77][78] فمنذ أوائل عام 2016، بدأت العديد من السلطات الوطنية والإقليمية والدولية في اعتماد استراتيجيات وخطط عمل وأوراق سياساتية حول الذكاء الاصطناعي.[79][80] وتشمل هذه الوثائق مجموعة واسعة من الموضوعات، بما في ذلك التنظيم والحكومة والاستراتيجية الصناعية، بالإضافة إلى البحث وتطوير الكفاءات والبنية التحتية. [35][81]

تختلف الدول في نهجها للتعامل مع تحديات الذكاء الاصطناعي. بالنسبة إلى أكبر ثلاث اقتصادات في العالم، يُقال إن "الولايات المتحدة تتبع نهجًا قائمًا على السوق، بينما تتبنى الصين نهجًا قائمًا على الدولة، في حين يسعى الاتحاد الأوروبي إلى نهج يستند إلى الحقوق." [82]

أستراليا

عدل

البرازيل

عدل

كندا

عدل

المغرب

عدل

الصين

عدل

مجلس أوروبا

عدل

الاتحاد الأوروبي

عدل

ألمانيا

عدل

مجموعة السبع

عدل

إسرائيل

عدل

إيطاليا

عدل

نيوزيلندا

عدل

الفلبين

عدل

إسبانيا

عدل

المملكة المتحدة

عدل

الولايات المتحدة

عدل

2016-2017

عدل

2018-2019

عدل

2021-2022

عدل

تنظيم الأسلحة المستقلة بالكامل

عدل

منذ عام 2013، نوقشت المسائل القانونية المتعلقة بأنظمة الأسلحة المستقلة القاتلة (LAWS) داخل الأمم المتحدة، ضمن سياق الاتفاقية المتعلقة بأسلحة تقليدية معينة.[83] وقد عُقدت اجتماعات غير رسمية للخبراء في الأعوام 2014 و2015 و2016، وعُين مجموعة من الخبراء الحكوميين لإجراء دراسات أوسع في عام 2016، وتبنى الاجتماع مجموعة من المبادئ التوجيهية بشأن أنظمة الأسلحة المستقلة القاتلة في عام 2018. [84]

في عام 2016 نشرت الصين وثيقة موقف تشكك في كفاية القانون الدولي الحالي للتعامل مع احتمالية ظهور أسلحة مستقلة بالكامل، لتصبح أول عضو دائم في مجلس الأمن يناقش هذه القضية، [85] مما أدى إلى اقتراحات لتنظيم عالمي. [86] كما أثارت بعض الوفود الوطنية إمكانية فرض وقف مؤقت أو حظر استباقي على تطوير واستخدام أنظمة "الأسلحة الذاتية التشغيل" في إطار اتفاقية الأسلحة التقليدية، وهو ما تدعمه بشدة حملة "إيقاف الروبوتات القاتلة" وهي ائتلاف من المنظمات غير الحكومية. [87] من جهتها تؤكد الحكومة الأمريكية أن القانون الإنساني الدولي الحالي قادر على تنظيم تطوير واستخدام هذه الأنظمة. وأشارت دائرة الأبحاث في الكونغرس في عام 2023 إلى أن الولايات المتحدة لا تمتلك حاليًا أسلحة مستقلة قاتلة في مخزونها، إلا أن سياستها لا تحظر تطوير واستخدام هذه الأنظمة.[88]

انظر أيضًا

عدل

مراجع

عدل
  1. ^ ا ب ج Berryhill، Jamie؛ Heang، Kévin Kok؛ Clogher، Rob؛ McBride، Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. مؤرشف من الأصل (pdf) في 2019-12-20. اطلع عليه بتاريخ 2024-10-13. وسم <ref> غير صالح؛ الاسم ":7" معرف أكثر من مرة بمحتويات مختلفة.
  2. ^ Cath، Corinne (2018). "Governing artificial intelligence: ethical, legal and technical opportunities and challenges". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. ج. 376 ع. 2133: 20180080. Bibcode:2018RSPTA.37680080C. DOI:10.1098/rsta.2018.0080. PMC:6191666. PMID:30322996. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  3. ^ Erdélyi، Olivia J.؛ Goldsmith، Judy (2020). "Regulating Artificial Intelligence: Proposal for a Global Solution". arXiv:2005.11072 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  4. ^ ا ب ج Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN:2019668143. OCLC:1110727808. مؤرشف من الأصل في 2024-05-28. اطلع عليه بتاريخ 2024-10-13. وسم <ref> غير صالح؛ الاسم ":1" معرف أكثر من مرة بمحتويات مختلفة.
  5. ^ Tallberg، Jonas؛ Erman، Eva؛ Furendal، Markus؛ Geith، Johannes؛ Klamberg، Mark؛ Lundgren، Magnus (2023). "Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research". International Studies Review. ج. 25 ع. 3. arXiv:2305.11528. DOI:10.1093/isr/viad040. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  6. ^ ا ب Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Geyer، Carolin (24 يوليو 2018). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. ج. 42 ع. 7: 596–615. DOI:10.1080/01900692.2018.1498103. ISSN:0190-0692. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  7. ^ Buiten، Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. ج. 10 ع. 1: 41–59. DOI:10.1017/err.2019.8. ISSN:1867-299X. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2024-10-13.
  8. ^ "An Ethical Approach to AI is an Absolute Imperative, Andreas Kaplan" (بالإنجليزية). Archived from the original on 2019-12-17. Retrieved 2021-04-26.
  9. ^ ا ب ج د Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. Bibcode:2015PhyS...90a8001S. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-13.
  10. ^ Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-13.
  11. ^ Héder، M (2020). "A criticism of AI ethics guidelines". Információs Társadalom. ج. 20 ع. 4: 57–73. DOI:10.22503/inftars.XX.2020.4.5. S2CID:233252939. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  12. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 May 2022). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks". AI and Ethics (بالإنجليزية). 3 (1): 145–153. DOI:10.1007/s43681-022-00163-7. ISSN:2730-5961. PMC:9127285. PMID:35634256. Archived from the original on 2023-03-15. Retrieved 2022-05-30.
  13. ^ ا ب Vincent، James (3 أبريل 2023). "AI is entering an era of corporate control". The Verge. مؤرشف من الأصل في 2023-06-19. اطلع عليه بتاريخ 2023-06-19.
  14. ^ "Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance" (pdf). Artificial Intelligence Index. AI Index. 2023. مؤرشف (PDF) من الأصل في 2023-06-19. اطلع عليه بتاريخ 2023-06-19.
  15. ^ ا ب "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR.org (بالإنجليزية). Archived from the original on 2020-04-23. Retrieved 2017-11-27.
  16. ^ Gibbs، Samuel (17 يوليو 2017). "Elon Musk: regulate AI to combat 'existential threat' before it's too late". The Guardian. مؤرشف من الأصل في 2020-06-06. اطلع عليه بتاريخ 2017-11-27.
  17. ^ Kharpal، Arjun (7 نوفمبر 2017). "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says". CNBC. مؤرشف من الأصل في 2020-03-22. اطلع عليه بتاريخ 2017-11-27.
  18. ^ Kaplan، Andreas؛ Haenlein، Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. ج. 62: 15–25. DOI:10.1016/j.bushor.2018.08.004. مؤرشف من الأصل في 2024-10-01. اطلع عليه بتاريخ 2024-10-13.
  19. ^ Edwards, Benj (17 May 2023). "Poll: AI poses risk to humanity, according to majority of Americans". Ars Technica (بالإنجليزية). Archived from the original on 2023-06-19. Retrieved 2023-06-19.
  20. ^ Kasperowicz، Peter (1 مايو 2023). "Regulate AI? GOP much more skeptical than Dems that government can do it right: poll". Fox News. مؤرشف من الأصل في 2023-06-19. اطلع عليه بتاريخ 2023-06-19.
  21. ^ "Fox News Poll" (pdf). Fox News. 2023. مؤرشف (PDF) من الأصل في 2023-05-12. اطلع عليه بتاريخ 2023-06-19.
  22. ^ ا ب Artificial intelligence in society. Organisation for Economic Co-operation and Development. Paris. ISBN:978-92-64-54519-9. OCLC:1105926611. مؤرشف من الأصل في 2020-06-21. اطلع عليه بتاريخ 2024-10-13.{{استشهاد بكتاب}}: صيانة الاستشهاد: آخرون (link) وسم <ref> غير صالح؛ الاسم ":8" معرف أكثر من مرة بمحتويات مختلفة.
  23. ^ ا ب ج Bredt، Stephan (04 أكتوبر 2019). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. ج. 2. DOI:10.3389/frai.2019.00016. ISSN:2624-8212. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13. وسم <ref> غير صالح؛ الاسم ":9" معرف أكثر من مرة بمحتويات مختلفة.
  24. ^ ا ب ج د ه White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. ص. 1. مؤرشف من الأصل (pdf) في 2020-04-19. اطلع عليه بتاريخ 2024-10-13. وسم <ref> غير صالح؛ الاسم ":12" معرف أكثر من مرة بمحتويات مختلفة.
  25. ^ Wirtz، Bernd W.؛ Müller، Wilhelm M. (03 ديسمبر 2018). "An integrated artificial intelligence framework for public management". Public Management Review. ج. 21 ع. 7: 1076–1100. DOI:10.1080/14719037.2018.1549268. ISSN:1471-9037. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  26. ^ Reisman، Dillon؛ Schultz، Jason؛ Crawford، Kate؛ Whittaker، Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (PDF). New York: AI Now Institute. مؤرشف من الأصل (pdf) في 2020-06-14. اطلع عليه بتاريخ 2024-10-13.
  27. ^ Iphofen، Ron؛ Kritikos، Mihalis (03 يناير 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science: 1–15. DOI:10.1080/21582041.2018.1563803. ISSN:2158-2041. مؤرشف من الأصل في 2024-09-14. اطلع عليه بتاريخ 2024-10-13.
  28. ^ AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (PDF). Washington, DC: United States Defense Innovation Board. 2019. OCLC:1126650738. مؤرشف من الأصل (pdf) في 2020-01-14. اطلع عليه بتاريخ 2024-10-13.
  29. ^ ا ب ج Babuta، Alexander؛ Oswald، Marion؛ Janjeva، Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (PDF). London: Royal United Services Institute. مؤرشف من الأصل (pdf) في 2020-05-02. اطلع عليه بتاريخ 2024-10-13. وسم <ref> غير صالح؛ الاسم ":6" معرف أكثر من مرة بمحتويات مختلفة.
  30. ^ "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 أبريل 2017. مؤرشف من الأصل في 2022-02-20. اطلع عليه بتاريخ 2017-12-24.
  31. ^ Bento، Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. مؤرشف من الأصل في 2020-03-23. اطلع عليه بتاريخ 2019-09-14.
  32. ^ Barfield، Woodrow؛ Pagallo، Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK: Edward Elgar Publishing. ISBN:978-1-78643-904-8. OCLC:1039480085. مؤرشف من الأصل في 2024-05-28. اطلع عليه بتاريخ 2024-10-13.
  33. ^ ا ب Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Geyer، Carolin (24 يوليو 2018). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. ج. 42 ع. 7: 596–615. DOI:10.1080/01900692.2018.1498103. ISSN:0190-0692. S2CID:158829602. مؤرشف من الأصل في 2020-08-18. اطلع عليه بتاريخ 2020-08-17.
  34. ^ Mantelero, Alessandro; Esposito, Maria Samantha (2021). "An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems". Computer Law & Security Review (بالإنجليزية). 41: 105561. arXiv:2407.20951. DOI:10.1016/j.clsr.2021.105561. ISSN:0267-3649. S2CID:237588123. Archived from the original on 2024-04-30. Retrieved 2024-10-13.
  35. ^ ا ب Artificial intelligence in society. Paris: Organisation for Economic Co-operation and Development. 11 يونيو 2019. ISBN:978-92-64-54519-9. OCLC:1105926611. مؤرشف من الأصل في 2020-06-21. اطلع عليه بتاريخ 2024-10-13.
  36. ^ Kamyshansky، Vladimir P.؛ Rudenko، Evgenia Y.؛ Kolomiets، Evgeniy A.؛ Kripakova، Dina R. (2020)، "Revisiting the Place of Artificial Intelligence in Society and the State"، Artificial Intelligence: Anthropogenic Nature vs. Social Origin، Advances in Intelligent Systems and Computing، Cham: Springer International Publishing، ج. 1100، ص. 359–364، DOI:10.1007/978-3-030-39319-9_41، ISBN:978-3-030-39318-2، S2CID:213070224، مؤرشف من الأصل في 2024-06-03، اطلع عليه بتاريخ 2024-10-13
  37. ^ "Special Issue on Soft Law Governance of Artificial Intelligence: IEEE Technology and Society Magazine publication information". IEEE Technology and Society Magazine. ج. 40 ع. 4: C2. ديسمبر 2021. DOI:10.1109/MTS.2021.3126194. مؤرشف من الأصل في 2024-08-07. اطلع عليه بتاريخ 2024-10-13.
  38. ^ ا ب ج د ه Marchant، Gary. ""Soft Law" Governance of AI" (pdf). AI Pulse. AI PULSE Papers. مؤرشف (PDF) من الأصل في 2023-03-21. اطلع عليه بتاريخ 2023-02-28.
  39. ^ ا ب ج Johnson، Walter G.؛ Bowman، Diana M. (ديسمبر 2021). "A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence". IEEE Technology and Society Magazine. ج. 40 ع. 4: 68–76. DOI:10.1109/MTS.2021.3123745. S2CID:245053179. مؤرشف من الأصل في 2024-09-24. اطلع عليه بتاريخ 2024-10-13.
  40. ^ Sutcliffe، Hillary R.؛ Brown، Samantha (ديسمبر 2021). "Trust and Soft Law for AI". IEEE Technology and Society Magazine. ج. 40 ع. 4: 14–24. DOI:10.1109/MTS.2021.3123741. S2CID:244955938. مؤرشف من الأصل في 2024-09-24. اطلع عليه بتاريخ 2024-10-13.
  41. ^ Lima-Strong، Cristiano (16 مايو 2024). "Youth activists call on world leaders to set AI safeguards by 2030". Washington Post. مؤرشف من الأصل في 2024-05-17. اطلع عليه بتاريخ 2024-06-24.
  42. ^ Haldane، Matt (21 مايو 2024). "Student AI activists at Encode Justice release 22 goals for 2030 ahead of global summit in Seoul". South China Morning Post. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-06-24.
  43. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (15 Jan 2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI. Computational Linguistics (Report) (بالإنجليزية). Berkman Klein Center for Internet & Society. Archived from the original on 2021-07-16. Retrieved 2021-07-04.
  44. ^ Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Sturm، Benjamin J. (15 أبريل 2020). "The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration". International Journal of Public Administration. ج. 43 ع. 9: 818–829. DOI:10.1080/01900692.2020.1749851. ISSN:0190-0692. S2CID:218807452. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  45. ^ ا ب Bredt، Stephan (04 أكتوبر 2019). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. ج. 2: 16. DOI:10.3389/frai.2019.00016. ISSN:2624-8212. PMC:7861258. PMID:33733105. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  46. ^ Wirtz، Bernd W.؛ Müller، Wilhelm M. (03 ديسمبر 2018). "An integrated artificial intelligence framework for public management". Public Management Review. ج. 21 ع. 7: 1076–1100. DOI:10.1080/14719037.2018.1549268. ISSN:1471-9037. S2CID:158267709. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  47. ^ Reisman، Dillon؛ Schultz، Jason؛ Crawford، Kate؛ Whittaker، Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (PDF). New York: AI Now Institute. مؤرشف من الأصل (pdf) في 2020-06-14. اطلع عليه بتاريخ 2020-04-28.
  48. ^ Kohli، Ajay؛ Mahajan، Vidur؛ Seals، Kevin؛ Kohli، Ajit؛ Jha، Saurabh (2019). "Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging". American Journal of Roentgenology. ج. 213 ع. 4: 886–888. DOI:10.2214/ajr.18.20410. ISSN:0361-803X. PMID:31166758. S2CID:174813195. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2021-03-27.
  49. ^ Sharma، Kavita؛ Manchikanti، Padmavati (01 أكتوبر 2020). "Regulation of Artificial Intelligence in Drug Discovery and Health Care". Biotechnology Law Report. ج. 39 ع. 5: 371–380. DOI:10.1089/blr.2020.29183.ks. ISSN:0730-031X. S2CID:225540889. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2021-03-27.
  50. ^ Petkus، Haroldas؛ Hoogewerf، Jan؛ Wyatt، Jeremy C (2020). "What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies". Clinical Medicine. ج. 20 ع. 3: 324–328. DOI:10.7861/clinmed.2019-0317. ISSN:1470-2118. PMC:7354034. PMID:32414724. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  51. ^ Cheng، Jerome Y.؛ Abel، Jacob T.؛ Balis، Ulysses G.J.؛ McClintock، David S.؛ Pantanowitz، Liron (2021). "Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology". The American Journal of Pathology. ج. 191 ع. 10: 1684–1692. DOI:10.1016/j.ajpath.2020.10.018. ISSN:0002-9440. PMID:33245914. S2CID:227191875. مؤرشف من الأصل في 2024-04-30. اطلع عليه بتاريخ 2024-10-13.
  52. ^ ا ب ج Gurkaynak، Gonenc؛ Yilmaz، Ilay؛ Haksever، Gunes (2016). "Stifling artificial intelligence: Human perils". Computer Law & Security Review. ج. 32 ع. 5: 749–758. DOI:10.1016/j.clsr.2016.05.003. ISSN:0267-3649. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  53. ^ Iphofen، Ron؛ Kritikos، Mihalis (03 يناير 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. ج. 16 ع. 2: 170–184. DOI:10.1080/21582041.2018.1563803. ISSN:2158-2041. S2CID:59298502. مؤرشف من الأصل في 2024-09-14. اطلع عليه بتاريخ 2024-10-13.
  54. ^ ا ب Babuta، Alexander؛ Oswald، Marion؛ Janjeva، Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (PDF). London: Royal United Services Institute. مؤرشف من الأصل (pdf) في 2020-05-02. اطلع عليه بتاريخ 2020-04-28.
  55. ^ "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 أبريل 2017. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2017-12-24.
  56. ^ Bento، Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. مؤرشف من الأصل في 2020-03-23. اطلع عليه بتاريخ 2019-09-14.
  57. ^ Kissinger، Henry (1 نوفمبر 2021). "The Challenge of Being Human in the Age of AI". وول ستريت جورنال. مؤرشف من الأصل في 2021-11-04. اطلع عليه بتاريخ 2021-11-04.
  58. ^ ا ب Barrett، Anthony M.؛ Baum، Seth D. (23 مايو 2016). "A model of pathways to artificial superintelligence catastrophe for risk and decision analysis". Journal of Experimental & Theoretical Artificial Intelligence. ج. 29 ع. 2: 397–414. arXiv:1607.07730. DOI:10.1080/0952813x.2016.1186228. ISSN:0952-813X. S2CID:928824. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-13.
  59. ^ "AI Index Report 2024 - chapter 3: Responsible AI" (pdf). aiindex.stanford.edu. أبريل 2024. مؤرشف (PDF) من الأصل في 2024-05-24. اطلع عليه بتاريخ 2024-06-07.
  60. ^ Boyd، Matthew؛ Wilson، Nick (01 نوفمبر 2017). "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?". Policy Quarterly. ج. 13 ع. 4. DOI:10.26686/pq.v13i4.4619. ISSN:2324-1101. مؤرشف من الأصل في 2024-04-24. اطلع عليه بتاريخ 2024-10-13.
  61. ^ Innovation، Science and Economic Development Canada (16 مايو 2019). "Declaration of the International Panel on Artificial Intelligence". gcnws. مؤرشف من الأصل في 2020-03-29. اطلع عليه بتاريخ 2020-03-29.
  62. ^ "The world has a plan to rein in AI—but the US doesn't like it". Wired (بالإنجليزية). 08 Jan 2020. Archived from the original on 2020-04-18. Retrieved 2020-03-29.
  63. ^ "AI Regulation: Has the Time Arrived?". InformationWeek (بالإنجليزية). Archived from the original on 2020-05-23. Retrieved 2020-03-29.
  64. ^ ا ب ج UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 11 يونيو 2021. ISBN:978-92-3-100450-6. مؤرشف من الأصل في 2022-06-18. اطلع عليه بتاريخ 2021-09-18.
  65. ^ "Community". GPAI. مؤرشف من الأصل في 2023-03-30. اطلع عليه بتاريخ 2024-10-13.
  66. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع timear
  67. ^ G20 Ministerial Statement on Trade and Digital Economy (PDF). Tsukuba City, Japan: G20. 2019. مؤرشف من الأصل (pdf) في 2024-10-13. اطلع عليه بتاريخ 2024-10-13.
  68. ^ "International AI ethics panel must be independent". Nature (بالإنجليزية). 572 (7770): 415. 21 Aug 2019. Bibcode:2019Natur.572R.415.. DOI:10.1038/d41586-019-02491-x. PMID:31435065. Archived from the original on 2024-08-18. Retrieved 2024-10-13.
  69. ^ Guidelines for AI Procurement (pdf). Cologny/Geneva: World Economic Forum. 2019. مؤرشف (PDF) من الأصل في 2020-07-17. اطلع عليه بتاريخ 2020-04-28.
  70. ^ "High-Level Event: Artificial Intelligence and Robotics – Reshaping the Future of Crime, Terrorism and Security". UNICRI. مؤرشف من الأصل في 2022-07-18. اطلع عليه بتاريخ 2022-07-18.
  71. ^ NíFhaoláin، Labhaoise؛ Hines، Andrew؛ Nallur، Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe (pdf). Dublin: Technological University Dublin, School of Computer Science, Dublin. ص. 1–12. مؤرشف (PDF) من الأصل في 2021-01-15. اطلع عليه بتاريخ 2021-03-27.  تتضمن هذه المقالة نصًا متاحًا تحت رُخصة CC BY 4.0. (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors. More info: رخص المشاع الإبداعي) Changes were made as follows: citations removed and minor grammatical amendments.
  72. ^ "Recommendation on the ethics of artificial intelligence". UNESCO (بالإنجليزية). 27 Feb 2020. Archived from the original on 2022-07-18. Retrieved 2022-07-18.
  73. ^ Nindler، Reinmar (11 مارس 2019). "The United Nation's Capability to Manage Existential Risks with a Focus on Artificial Intelligence". International Community Law Review. ج. 21 ع. 1: 5–34. DOI:10.1163/18719732-12341388. ISSN:1871-9740. S2CID:150911357. مؤرشف من الأصل في 2022-08-30. اطلع عليه بتاريخ 2022-08-30.
  74. ^ "About". AI for Good (بالإنجليزية). Archived from the original on 2019-04-27. Retrieved 2023-04-06.
  75. ^ Taddeo, Mariarosaria; Floridi, Luciano (Apr 2018). "Regulate artificial intelligence to avert cyber arms race". Nature (بالإنجليزية). 556 (7701): 296–298. Bibcode:2018Natur.556..296T. DOI:10.1038/d41586-018-04602-6. PMID:29662138. Archived from the original on 2024-08-18. Retrieved 2024-10-13.
  76. ^ Jaiswal, Rishabh (5 Sep 2024). "US, Britain, EU to sign first international AI treaty". Reuters (بالإنجليزية). Archived from the original on 2024-09-23. Retrieved 2024-09-07.
  77. ^ Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN:2019668143. OCLC:1110727808. مؤرشف من الأصل في 2024-05-28. اطلع عليه بتاريخ 2024-10-13. {{استشهاد بكتاب}}: |صحيفة= تُجوهل (مساعدة)
  78. ^ Popova، Anna V.؛ Gorokhova، Svetlana S.؛ Abramova، Marianna G.؛ Balashkina، Irina V. (2021)، "The System of Law and Artificial Intelligence in Modern Russia: Goals and Instruments of Digital Modernization"، Emerald Expert Briefings، Studies in Systems, Decision and Control، Cham: Springer International Publishing، ج. 314، ص. 89–96، DOI:10.1007/978-3-030-56433-9_11، ISBN:978-3-030-56432-2، S2CID:234309883، مؤرشف من الأصل في 2024-09-25، اطلع عليه بتاريخ 2021-03-27
  79. ^ "OECD Observatory of Public Sector Innovation – Ai Strategies and Public Sector Components". OECD Observatory of Public Sector Innovation. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2020-05-04.
  80. ^ Berryhill، Jamie؛ Heang، Kévin Kok؛ Clogher، Rob؛ McBride، Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (pdf). Paris: OECD Observatory of Public Sector Innovation. مؤرشف (PDF) من الأصل في 2019-12-20. اطلع عليه بتاريخ 2020-05-05.
  81. ^ Campbell، Thomas A. (2019). Artificial Intelligence: An Overview of State Initiatives (PDF). Evergreen, CO: FutureGrasp, LLC. مؤرشف من الأصل (pdf) في 2020-03-31. اطلع عليه بتاريخ 2024-10-13.
  82. ^ Bradford, Anu (27 Jun 2023). "The Race to Regulate Artificial Intelligence". Foreign Affairs (بالإنجليزية). ISSN:0015-7120. Archived from the original on 2023-08-11. Retrieved 2023-08-11.
  83. ^ "Background on Lethal Autonomous Weapons Systems in the CCW". United Nations Geneva. مؤرشف من الأصل في 2020-04-27. اطلع عليه بتاريخ 2020-05-05.
  84. ^ "Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System" (PDF). United Nations Geneva. مؤرشف من الأصل (pdf) في 2020-12-01. اطلع عليه بتاريخ 2020-05-05.
  85. ^ Baum، Seth (30 سبتمبر 2018). "Countering Superintelligence Misinformation". Information. ج. 9 ع. 10: 244. DOI:10.3390/info9100244. ISSN:2078-2489. مؤرشف من الأصل في 2024-06-06. اطلع عليه بتاريخ 2024-10-13.
  86. ^ Baum، Seth (30 سبتمبر 2018). "Countering Superintelligence Misinformation". Information. ج. 9 ع. 10: 244. DOI:10.3390/info9100244. ISSN:2078-2489. مؤرشف من الأصل في 2024-06-06. اطلع عليه بتاريخ 2024-10-13.
  87. ^ "Country Views on Killer Robots" (pdf). The Campaign to Stop Killer Robots. مؤرشف (PDF) من الأصل في 2019-12-22. اطلع عليه بتاريخ 2020-05-05.
  88. ^ "Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems". Congressional Research Service. 15 مايو 2023. مؤرشف من الأصل في 2023-11-01. اطلع عليه بتاريخ 2023-10-18.