تنظيم الذكاء الاصطناعي

تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين القطاع العام لتعزيز وتنظيم الذكاء الاصطناعي؛[1] وبالتالي فهو مرتبط بالتنظيم الأوسع للخوارزميات.[2][3] يعد المشهد التنظيمي والسياسي للذكاء الاصطناعي مسألةً ناشئةً في الولايات القضائية العالمية، بما في ذلك في الاتحاد الأوروبي.[4][5] يُعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به، ولكنه يمثل تحديًا.[6][7] يمكن أيضًا اعتبار تنظيم الذكاء الاصطناعي من خلال آليات مثل لوحات المراجعة وسيلة اجتماعية للتعامل مع مشكلة التحكم في الذكاء الاصطناعي.[8][9][10]

منذ عام 2016، تمّ نشر العديد من الإرشادات الأخلاقية لـلذّكاء الاصطناعيّ من أجل الحفاظ على السّيطرة الاجتماعية على التكنولوجيا.[11] يعتبر التنظيم ضروريًا لـ كلّ من تعزيز ابتكار الذّكاء الاصطناعيّ وإدارة المخاطر المرتبطة به.

علاوةً على ذلك، تلعب المنظّمات التي تنشر الذّكاء الاصطناعيّ دورًا محوريًا في إنشاء وتنفيذ ذكاء اصطناعيّ جدير بـلثّقة، والالتزام بـلمبادئ المثبتة، وتحمل مسؤولية التخفيف من المخاطر.[12]

خلفية

وفقًا لـ مؤشّر الذّكاء الاصطناعيّ لعام 2023 لجامعة ستانفورد، قفز العدد السّنويّ لمشاريع القوانين التي تذكر "الذّكاء الاصطناعيّ" التي تمّ إقرارها في 127 دولةً تمّ مسحها من مشروع قانون واحد في عام 2016 إلى 37 مشروع قانون في عام 2022.[13][14]

في عام 2017 دعا إيلون مسك إلى تنظيم تطوير الذكاء الاصطناعي.[15] وفقًا للإذاعة الوطنية العامة، كان الرئيس التنفيذي لشركة تيسلا «من الواضح أنه ليس سعيدًا» للدفاع عن التدقيق الحكومي الذي يمكن أن يؤثر على صناعته الخاصة، لكنه يعتقد أن مخاطر الانتقال تمامًا بدون إشراف عالية جدًا: «عادةً ما تُوضع اللوائح عندما تحدث الكثير من الأشياء السيئة، هناك احتجاج عام، وبعد سنوات عديدة أُنشئت وكالة تنظيمية لتنظيم هذه الصناعة. يستغرق الأمر أبد الدهر. كان هذا في الماضي سيئًا ولكنه لم يكن شيئًا يمثل خطرًا أساسيًا على وجود الحضارة».[15] وردًا على ذلك، عبّر بعض السياسيين عن شكوكهم بشأن حكمة تنظيم التكنولوجيا التي لا تزال قيد التطوير.[16] ردًا على مقترحات كلًا من مسك وفبرواري لعام 2017 من قبل مشرعي الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي والروبوتات، جادل الرئيس التنفيذي لشركة إنتل بريان كرزانيتش بأن الذكاء الاصطناعي في مهده وأنه من السابق لأوانه تنظيم التكنولوجيا.[17] بدلًا من محاولة تنظيم التكنولوجيا نفسها، يقترح بعض العلماء إلى حدٍ ما وضع معايير مشتركة بما في ذلك متطلبات اختبار وشفافية الخوارزميات، ربما بالاشتراك مع شكل من أشكال الضمان.[18]

في استطلاع أجرته إبسوس عام 2022، اختلفت المواقف تجاه الذّكاء الاصطناعيّ بشكل كبير حسب الدّولة؛ وافق 78% من المواطنين الصّينيين، ولكن 35% فقط من الأمريكيين، على أنّ "المنتجات والخدمات التي تستخدم الذّكاء الاصطناعيّ لها فوائد أكثر من العيوب".[13] وجد استطلاع أجرته كل من رويترز وإبسوس عام 2023 أنّ 61% من الأمريكيين يتّفقون، و22% يختلفون، على أنّ الذّكاء الاصطناعيّ يشكّل مخاطر على البشرية.[19] في استطلاع أجرته فوكس نيوز عام 2023 اعتقد 35% من الأمريكيين أنّه "مهمّ جدًا"، واعتقد 41% إضافيون أنّه "مهمّ إلى حدّ ما"، أن تقوم الحكومة الفيدرالية بتنظّم الذّكاء الاصطناعيّ، مقابل 13% أجابوا "ليس مهمًا جدًا" و8% أجابوا "ليس مهمًا على الإطلاق".[20][21]

طبيعة ونطاق التنظيم

تركز اعتبارات السياسة العامة بشكلٍ عام على الآثار التقنية والاقتصادية وأنظمة الذكاء الاصطناعي[22] الجديرة بالثقة والتي تركز على الإنسان. يمكن تقسيم قوانين ولوائح منظمة العفو الدولية إلى ثلاثة مواضيع رئيسية، وهي إدارة نظم المعلومات الاستخبارية المستقلة، والمسؤولية والمساءلة عن الأنظمة، وقضايا الخصوصية والسلامة.[6] أصبح تطوير استراتيجيات القطاع العام لإدارة وتنظيم الذكاء الاصطناعي ضروريًا بشكلٍ متزايد على المستوى المحلي والوطني[23] والدولي[24] وفي مجموعة متنوعة من المجالات، من إدارة الخدمة العامة[25] والمساءلة[26] لإنفاذ القانون،[24] والقطاع المالي،[23] والروبوتات،[27] والقوات المسلحة[28] والأمن القومي،[29] والقانون الدولي.[30][31]

وجهات نظر

تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين للقطاع العام لتعزيز وتنظيم الذكاء الاصطناعي.[32] يُعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به.[33][34][35] تُركِز اعتبارات الإدارة العامة والسياسة بشكل عام على الآثار التقنية والاقتصادية وعلى أنظمة الذكاء الاصطناعي الجديرة بالثقة والمركزة على الإنسان، [36] ويؤخذ في الاعتبار أيضًا تنظيم الذكاءات الفائقة الاصطناعية.[37] يُركز النهج الأساسي للتنظيم على مخاطر وتحيزات خوارزميات التعلم الآلي على مستوى بيانات الإدخال واختبار الخوارزميات ونموذج القرار. كما يُركز على إمكانية تفسير المخرجات.[4]

كانت هناك اقتراحات قانونية صارمة وقانونية مرنة لتنظيم الذكاء الاصطناعي.[38] لاحظ بعض الفقهاء القانونيين أن النهج القانونية الصارمة لتنظيم الذكاء الاصطناعي تواجه تحديات كبيرة.[39][40] من بينها أن تقنية الذكاء الاصطناعي تتطور بسرعة مما يؤدي إلى عدم مواكبة القوانين واللوائح التقليدية للتطبيقات الناشئة ومخاطرها وفوائدها.[39][40] وبالمثل، فإن تنوع تطبيقات الذكاء الاصطناعي يشكل تحديًا لوكالات التنظيم الحالية، والتي غالبًا ما يكون لديها نطاق قضائي محدود.[39] يُجادل بعض الفقهاء القانونيين بأن النهج القانونية المرنة لتنظيم الذكاء الاصطناعي واعدة لأنه يمكن تكييف القوانين المرنة بشكل أكثر مرونةً لتلبية احتياجات تقنية الذكاء الاصطناعي الناشئة والمتطورة والتطبيقات الوليدة.[39][40] غالبًا ما تفتقر النهج القانونية المرنة إلى إمكانات كبيرة للإنفاذ.[39][41]

اقترح كل من "كاسون شميت"، و"ميغان دوير"، و"جينيفر فاغنر" إنشاء منظم شبه حكومي من خلال الاستفادة من حقوق الملكية الفكرية في كائنات ذكاء اصطناعي معينة مثل نماذج الذكاء الاصطناعي ومجموعات البيانات التدريبية وتفويض حقوق الإنفاذ إلى كيان إنفاذ معين.[42] وجادلوا بأنه يمكن ترخيص الذكاء الاصطناعي بموجب شروط تتطلب الالتزام بممارسات أخلاقية محددة ومدونات قواعد سلوك مثل مبادئ القانون المرن.[29]

أصدرت منظمات الشباب البارزة التي تركز على الذكاء الاصطناعي مثل "Encode Justice" جداول أعمال شاملةً تدعو إلى لوائح أكثر صرامةً للذكاء الاصطناعي وشراكات بين القطاعين العام والخاص.[43][44]

يمكن أن ينبثق تنظيم الذكاء الاصطناعي من مبادئ أساسية، حيث حددت مراجعة شاملة لمركز "بيركمان كلاين" للإنترنت والمجتمع لعام 2020 ثمانية مبادئ أساسية وهي "الخصوصية، والمساءلة، والسلامة والأمن، والشفافية وإمكانية التفسير، والعدالة وعدم التمييز، والسيطرة البشرية على التكنولوجيا، والمسؤولية المهنية، واحترام القيم الإنسانية".[45] قُسمت قوانين ولوائح الذكاء الاصطناعي إلى ثلاثة مواضيع رئيسية وهي: حوكمة أنظمة الذكاء المستقلة، والمسؤولية والمساءلة عن الأنظمة، وقضايا الخصوصية والسلامة.[33]

يرى نهج الإدارة العامة علاقةً بين قانون ولوائح الذكاء الاصطناعي، وأخلاقيات الذكاء الاصطناعي، ومجتمع الذكاء الاصطناعي، المعرف على أنه استبدال القوى العاملة وتحويلها، والقبول الاجتماعي والثقة في الذكاء الاصطناعي، وتحويل التفاعل من الإنسان إلى الآلة.[46] يُعتبر تطوير استراتيجيات القطاع العام لإدارة وتنظيم الذكاء الاصطناعي ضروريًا على المستويات المحلية والوطنية والدولية، [47][48] وفي مجموعة متنوعة من المجالات مثل إدارة الخدمة العامة، [49] والمساءلة، [50] وإنفاذ القانون، [24][51] والرعاية الصحية (خاصةً مفهوم الضمان البشري)، [52][53][54][55][56] والقطاع المالي، [47] والروبوتات، [57][58] والمركبات ذاتية القيادة، [57] والجيش، [59] والأمن القومي، [60] والقانون الدولي.[61][62]

نشر هنري كيسنجر وإيريك شميت ودانيال هوتينلوشر بيانًا مشتركًا في نوفمبر 2021 بعنوان "أن تكون إنسانًا في عصر الذكاء الاصطناعي" داعين إلى لجنة حكومية لتنظيم الذكاء الاصطناعي.[63]

السيطرة على الذكاء الاصطناعي

يمكن اعتبار تنظيم الذكاء الاصطناعي وسيلة اجتماعية إيجابية لمعالجة مشكلة التحكم في الذكاء الاصطناعي (الحاجة إلى ضمان ذكاء اصطناعي مفيد طويل الأمد)، حيث تعتبر بعض الردود الاجتماعية الأخرى، مثل عدم اتخاذ أي إجراء أو الحظر، غير عملية. بينما تُعتبر بعض المقاربات الأخرى، كتعزيز القدرات البشرية من خلال تقنيات ما بعد الإنسانية مثل واجهات الدماغ والحاسوب، مكملات محتملة.[9][64] يُركز تنظيم الأبحاث المتعلقة بالذكاء الاصطناعي العام (AGI) على دور هيئات المراجعة من مستويات مختلفة، كالمستوى الجامعي أو الشركات أو حتى على المستوى الدولي، وعلى تشجيع الأبحاث المتعلقة بسلامة الذكاء الاصطناعي، [64] إلى جانب إمكانية تحقيق التقدم الفكري التفاضلي (أي إعطاء الأولوية لاستراتيجيات الحماية بدلاً من الاستراتيجيات المحفوفة بالمخاطر في تطوير الذكاء الاصطناعي) أو إجراء مراقبة جماعية دولية للتحكم في أسلحة الذكاء الاصطناعي العام.[9]

على سبيل المثال، تُعد "مربية الذكاء الاصطناعي العام" إستراتيجية مقترحة للوقاية من إنشاء ذكاء اصطناعي خارق خطير ولمعالجة تهديدات أخرى رئيسية للرفاه البشري، مثل تقويض النظام المالي العالمي، حتى يمكن إنشاء ذكاء اصطناعي خارق آمن. وتشمل هذه الإستراتيجية إنشاء نظام ذكاء اصطناعي ذكي لكنه ليس خارقًا، مرتبط بشبكة مراقبة واسعة، بهدف مراقبة البشرية وحمايتها من الأخطار.[9] يُركز تنظيم الذكاء الاصطناعي الواعي أخلاقيًا على كيفية دمجه مع المجتمع البشري الحالي، ويمكن تقسيمه إلى اعتبارات تتعلق بوضعه القانوني وحقوقه الأخلاقية. ومع ذلك، يُنظر إلى تنظيم الذكاء الاصطناعي في بعض الأحيان على أنه مقيّد، وقد يؤدي إلى منع تطوير الذكاء الاصطناعي العام (AGI).[57]

التنظيم العالمي

تتفق المنظمات التي تم استطلاع آرائها بشكل كبير على أن الشركات التي تطور نماذج الأساس ستكون مسؤولة عن المخاطر المرتبطة بها (بدلاً من الشركات التي تستخدمها)، وأن هناك حاجة إلى حوكمة عالمية لمعالجة المخاطر الناجمة عن الذكاء الاصطناعي التوليدي.[65]

اقتُرح إنشاء مجلس إدارة عالمي لتنظيم تطوير الذكاء الاصطناعي في وقت مبكر على الأقل في عام 2017.[66] في ديسمبر 2018، أعلنت كندا وفرنسا عن خطط لجنة دولية للذكاء الاصطناعي المدعومة من جي 7، على غرار الفريق الدولي المعني بتغير المناخ، لدراسة الآثار العالمية للذكاء الاصطناعي على الناس والاقتصاد وتوجيه تنمية الذكاء الاصطناعي.[67] في عام 2019، تغير اسم الفريق إلى الشراكة العالمية بشأن الذكاء الاصطناعي، ولكن لم يُعتمد بعد من قبل الولايات المتحدة.[68][69]

تأسست "الشراكة العالمية للذكاء الاصطناعي [الإنجليزية]" (GPAI) في يونيو 2020 مُشيرة إلى ضرورة تطوير الذكاء الاصطناعي بما يتماشى مع حقوق الإنسان والقيم الديمقراطية لضمان ثقة الجمهور في التكنولوجيا، كما هو موضح في مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي لعام 2019.[70] تشمل الدول الـ 15 المؤسسة: أستراليا، وكندا، والاتحاد الأوروبي، وفرنسا، وألمانيا، والهند، وإيطاليا، واليابان، وجمهورية كوريا، والمكسيك، ونيوزيلندا، وسنغافورة، وسلوفينيا، والولايات المتحدة، والمملكة المتحدة. في عام 2023 بلغ عدد أعضاء الشراكة 29 دولة.[71] تستضيف منظمة التعاون الاقتصادي والتنمية أمانة الشراكة في باريس. تشمل ولاية الشراكة أربعة مواضيع، يدعم اثنان منها المركز الدولي للخبرة في مونتريال لتعزيز الذكاء الاصطناعي، وهما: الذكاء الاصطناعي المسؤول وحوكمة البيانات. كما يدعم مركز تميز موازٍ في باريس الموضوعين الآخرين حول مستقبل العمل والابتكار والتسويق التجاري. كما قامت الشراكة العالمية بدراسة كيفية تسخير الذكاء الاصطناعي للاستجابة لجائحة كوفيد-19.[70]

اعتمدت منظمة التعاون الاقتصادي والتنمية مبادئها للذكاء الاصطناعي في مايو 2019، ومبادئ الذكاء الاصطناعي لمجموعة العشرين في يونيو 2019.[72][73][74] أصدر المنتدى الاقتصادي العالمي في سبتمبر 2019 عشر إرشادات لـ "مشتريات الحكومة للذكاء الاصطناعي".[75] وفي فبراير 2020 نشر الاتحاد الأوروبي مسودة إستراتيجية لتعزيز وتنظيم الذكاء الاصطناعي.[24]

في الأمم المتحدة، بدأت عدة جهات في الترويج لمناقشة جوانب تنظيم وسياسات الذكاء الاصطناعي، بما في ذلك مركز الذكاء الاصطناعي والروبوتات (UNICRI) التابع لمعهد الأمم المتحدة الإقليمي لبحوث الجريمة والعدالة.[60] أصدر المركز بالشراكة مع الإنتربول تقريرًا بعنوان "الذكاء الاصطناعي والروبوتات في إنفاذ القانون" في أبريل 2019، [76] وتقريرًا لاحقًا بعنوان "نحو ابتكار مسؤول في مجال الذكاء الاصطناعي" في مايو 2020.[1] في الجلسة العلمية الأربعين لليونسكو في نوفمبر 2019 بدأت المنظمة عملية تستمر لمدة عامين لتحقيق "أداة معيارية عالمية حول أخلاقيات الذكاء الاصطناعي". في إطار هذا الهدف، عُقدت منتديات ومؤتمرات لليونسكو حول الذكاء الاصطناعي لجمع آراء الأطراف المعنية. في سبتمبر 2020 أصدرت مجموعة الخبراء الخاصة باليونسكو مسودة نص توصية حول أخلاقيات الذكاء الاصطناعي تضمنت دعوة لسد الفجوات التشريعية.[77] وقدمت اليونسكو هذه الأداة الدولية بشأن أخلاقيات الذكاء الاصطناعي لاعتمادها في مؤتمرها العام في نوفمبر 2021 والتي أُعتمدت لاحقًا.[70][78] ورغم هذا التقدم الذي تحرزه الأمم المتحدة في إدارة الذكاء الاصطناعي على الصعيد العالمي، فإن قدرتها المؤسسية والقانونية على التعامل مع مخاطر الذكاء الاصطناعي العام لا تزال محدودة.[79]

أطلق الاتحاد الدولي للاتصالات بالشراكة مع 40 وكالة تابعة للأمم المتحدة مبادرة "الذكاء الاصطناعي من أجل الخير"، وهي منصة عالمية تهدف إلى تحديد التطبيقات العملية للذكاء الاصطناعي لتعزيز أهداف التنمية المستدامة للأمم المتحدة وتوسيع نطاق هذه الحلول لتحقيق تأثير عالمي. وهي منصة شاملة تركز على العمل العالمي لتطوير الذكاء الاصطناعي لتحقيق تأثير إيجابي على الصحة، والمناخ، والنوع الاجتماعي، والازدهار الشامل، والبنية التحتية المستدامة، وأولويات التنمية العالمية الأخرى.[80]

أشارت الأبحاث الحديثة إلى أن بعض الدول ستبدأ في استخدام الذكاء الاصطناعي كأداة للدفاع السيبراني الوطني، حيث يُعتبر الذكاء الاصطناعي عاملًا جديدًا في صناعة التسلح السيبراني، ويمكن استخدامه لأغراض الدفاع. لذلك يحث الأكاديميون على أن تقوم الدول بإنشاء لوائح لاستخدام الذكاء الاصطناعي مشابهة للوائح التي تنظم الصناعات العسكرية الأخرى.[81]

في 5 سبتمبر 2024 وقعت عدة دول "أول معاهدة دولية بشأن الذكاء الاصطناعي" بمشاركة دول مثل الولايات المتحدة وبريطانيا وأعضاء الاتحاد الأوروبي، بهدف حماية حقوق الإنسان وتعزيز الاستخدام المسؤول للذكاء الاصطناعي، رغم أن الخبراء أثاروا مخاوف بشأن مبادئها الواسعة واستثناءاتها.[82]

تنظيم إقليمي ووطني

يمثل الإطار التنظيمي والسياسي للذكاء الاصطناعي قضية ناشئة في مختلف الولايات القضائية الإقليمية والوطنية حول العالم، مثل الاتحاد الأوروبي وروسيا.[4][83] فمنذ أوائل عام 2016، بدأت العديد من السلطات الوطنية والإقليمية والدولية في اعتماد استراتيجيات وخطط عمل وأوراق سياساتية حول الذكاء الاصطناعي.[84][85] وتشمل هذه الوثائق مجموعة واسعة من الموضوعات، بما في ذلك التنظيم والحكومة والإستراتيجية الصناعية، بالإضافة إلى البحث وتطوير الكفاءات والبنية التحتية.[36][86]

تختلف الدول في نهجها للتعامل مع تحديات الذكاء الاصطناعي. بالنسبة إلى أكبر ثلاث اقتصادات في العالم، يُقال إن "الولايات المتحدة تتبع نهجًا قائمًا على السوق، بينما تتبنى الصين نهجًا قائمًا على الدولة، في حين يسعى الاتحاد الأوروبي إلى نهج يستند إلى الحقوق." [87]

أستراليا

في أكتوبر 2023، نشرت جمعية الكمبيوتر الأسترالية، ومجلس الأعمال الأسترالي، وغرفة التجارة والصناعة الأسترالية، ومجموعة الذكاء الاصطناعي (المعروفة أيضًا باسم مجموعة الصناعة الأسترالية) ومجلس منظمات الأعمال الصغيرة في أستراليا، ومجلس التكنولوجيا الأسترالي، رسالة مفتوحة تدعو إلى نهج وطني لإستراتيجية الذكاء الاصطناعي. تدعم الرسالة الحكومة الفيدرالية في إنشاء فريق عمل حكومي شامل للذكاء الاصطناعي.[88][88]

كندا

تدعم الإستراتيجية الكندية الشاملة للذكاء الاصطناعي، التي أُطلقت عام 2017، بتمويل فيدرالي قدره 125 مليون دولار كندي، مجموعة من الأهداف النبيلة. تتضمن هذه الأهداف زيادة عدد الباحثين المتميزين والخريجين المهرة في هذا المجال على الأراضي الكندية، وإنشاء مراكز بحثية متخصصة في الذكاء الاصطناعي تعزز الريادة العلمية في البلاد، وتطوير رؤية شاملة للآثار الاقتصادية والأخلاقية والسياسية والقانونية المترتبة على تطور هذا العلم. علاوة على ذلك، تسعى الإستراتيجية إلى دعم مجتمع البحث الكندي العامل في مجال الذكاء الاصطناعي.[70]

يشكل برنامج كراسي الذكاء الاصطناعي في كندا حجر الزاوية في هذه الإستراتيجية، حيث يخصص له تمويل قدره 86.5 مليون دولار كندي على مدى خمس سنوات. يهدف هذا البرنامج إلى جذب أبرز الباحثين في مجال الذكاء الاصطناعي والاحتفاظ بهم في كندا. وشكلت الحكومة الفيدرالية مجلس استشاري للذكاء الاصطناعي في مايو 2019، مهمته الأساسية دراسة كيفية الاستفادة من نقاط القوة الكندية لضمان أن يكون تطور الذكاء الاصطناعي متوافقًا مع القيم الكندية، مثل حقوق الإنسان والشفافية والانفتاح. وعلاوة على ذلك، أنشأ المجلس مجموعة عمل متخصصة لدراسة كيفية الاستفادة التجارية من الذكاء الاصطناعي والبيانات الضخمة المملوكة لكندا.[70][70]

في عام 2020 أعلنت الحكومة الفيدرالية وحكومة كيبك عن افتتاح المركز الدولي للخبرة في مونتريال لتقدم الذكاء الاصطناعي، والذي من المتوقع أن يعزز جهود تطوير الذكاء الاصطناعي بشكل مسؤول. وفي يونيو 2022، أطلقت الحكومة الكندية المرحلة الثانية من استراتيجيتها الشاملة للذكاء الاصطناعي.[70][89]

قدمت كندا في نوفمبر 2022 مشروع قانون تنفيذ الميثاق الرقمي (مشروع القانون C-27)، والذي يتضمن مجموعة من القوانين التي تهدف إلى تعزيز الثقة والخصوصية في المجال الرقمي. تشمل هذه القوانين قانون حماية خصوصية المستهلك، وقانون محكمة حماية المعلومات الشخصية والبيانات، وقانون الذكاء الاصطناعي والبيانات (AIDA).[90][91]

المغرب

تقدم ائتلاف من الأحزاب السياسية في البرلمان بمشروع قانون يقضي بإنشاء "وكالة وطنية للذكاء الاصطناعي". ويهدف هذا المشروع إلى تنظيم تقنيات الذكاء الاصطناعي المتسارعة التطور، وتعزيز التعاون مع المؤسسات الدولية العاملة في هذا المجال، وزيادة الوعي العام بالإمكانات الهائلة التي يتيحها الذكاء الاصطناعي والمخاطر المحتملة المترتبة على استخدامه.[92]

الصين

تحكم الصين تنظيم الذكاء الاصطناعي بشكل رئيسي من خلال "خطة تطوير الذكاء الاصطناعي للجيل التالي" الصادرة عن في 8 يوليو 2017 (وثيقة مجلس الدولة رقم 35)، حيث حثت اللجنة المركزية للحزب الشيوعي الصيني ومجلس الدولة في جمهورية الصين الشعبية الهيئات الحاكمة على تعزيز تطوير الذكاء الاصطناعي حتى عام 2030.

تسعى جمهورية الصين الشعبية إلى تنظيم قطاع الذكاء الاصطناعي بصورة دقيقة، وذلك من خلال إصدارها لـ "خطة تطوير الذكاء الاصطناعي للجيل التالي" في الثامن من يوليو عام 2017 (وثيقة مجلس الدولة رقم 35). وقد حثت هذه الخطة، التي أصدرتها اللجنة المركزية للحزب الشيوعي الصيني ومجلس الدولة، على تكثيف الجهود لتطوير هذا القطاع الحيوي بحلول عام 2030.[93][94] وتشمل هذه الخطة مجموعة من الإجراءات التنظيمية التي تهدف إلى ضمان استدامة تطوير الذكاء الاصطناعي، مع الحفاظ على القيم الأخلاقية والمصالح الوطنية. ومن أبرز هذه الإجراءات السيطرة الحكومية على الشركات العاملة في هذا المجال، وضمان تخزين البيانات داخل الأراضي الصينية، بالإضافة إلى إلزام هذه الشركات باتباع المعايير الوطنية الصينية في مجالات البيانات الضخمة والحوسبة السحابية والبرامج الصناعية.[95]

وفي سياق متصل، أصدرت السلطات الصينية في عام 2021 إرشادات أخلاقية لاستخدام الذكاء الاصطناعي، أكدت فيها على ضرورة أن يكون تطوير هذا التكنولوجيا متوافقًا مع القيم الإنسانية المشتركة، وأن يبقى تحت السيطرة البشرية، وأن لا يشكل تهديدًا للسلامة العامة.[96] وفي عام 2023 قدمت الصين "إجراءات مؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي" مما يعكس حرصها على مواكبة التطورات المتسارعة في هذا المجال وتنظيمها بشكل فعال.[97]

مجلس أوروبا

يُمثل مجلس أوروبا صرحًا دوليًا يكرّس جهوده لتعزيز حقوق الإنسان والديمقراطية وسيادة القانون. يضم المجلس في عضويته 46 دولة، بما في ذلك كافة الدول الموقعة على إعلان التعاون بشأن الذكاء الاصطناعي الذي أصدره الاتحاد الأوروبي عام 2018.[98] استطاع المجلس أن ينشئ فضاءً قانونيًا موحدًا تلتزم فيه الدول الأعضاء بضمان الحقوق والحريات المنصوص عليها في الاتفاقية الأوروبية لحقوق الإنسان.[98]

وفي سياق التطورات المتسارعة في مجال الذكاء الاصطناعي، يسعى مجلس أوروبا إلى تحديد النقاط المشتركة بين هذه التكنولوجيا ومعايير حقوق الإنسان والديمقراطية وسيادة القانون، سعيًا منه إلى وضع معايير أو بناء القدرات اللازمة لمواجهة التحديات الناشئة. وقد أصدر المجلس العديد من الوثائق التوجيهية والمواثيق والتقارير والاستراتيجيات التي تتناول هذا الموضوع، والتي شارك في صياغتها مختلف الفاعلين من منظمات وشركات وهيئات ودول.[77]

في عام 2019 أطلق مجلس أوروبا عملية تقييمية لدراسة الحاجة إلى وضع إطار قانوني ملزم للذكاء الاصطناعي، مع التركيز على آثاره على حقوق الإنسان والقيم الديمقراطية. وفي سبتمبر 2022، انطلقت مفاوضات حول معاهدة دولية بهذا الشأن بمشاركة الدول الأعضاء في المجلس بالإضافة إلى دول أخرى من مختلف القارات. وفي 17 مايو 2024، تم اعتماد "اتفاقية الإطار حول الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون"، وفتحت للتوقيع في سبتمبر من العام نفسه. ورغم كونها صيغة أوروبية، إلا أن هذه المعاهدة مفتوحة لانضمام أي دولة من العالم. وقد كانت أولى الدول الموقعة على هذه المعاهدة هي: أندورا، جورجيا، آيسلندا، النرويج، مولدوفا، سان مارينو، المملكة المتحدة، إسرائيل، الولايات المتحدة، والاتحاد الأوروبي.[99][100]

الاتحاد الأوروبي

يُعتبر الاتحاد الأوروبي من أكبر السلطات القضائية في العالم، وتيلعب دورًا نشطًا في تنظيم التكنولوجيا الرقمية عالميًا من خلال النظام الأوروبي العام لحماية البيانات، [101] و"قانون الخدمات الرقمية" وقانون الأسواق الرقمية.[102][103] وبالنسبة للذكاء الاصطناعي، يُعتبر "قانون الذكاء الاصطناعي" في عام 2023 من أكثر التشريعات تقدمًا في تنظيم الذكاء الاصطناعي على مستوى العالم.[104][105]

تتّبع غالبية دول الاتحاد الأوروبي استراتيجيات وطنية خاصة بتنظيم الذكاء الاصطناعي،[77] إلا أن هذه الاستراتيجيات تتقارب إلى حد كبير.[106] ويسترشد الاتحاد بـ"إستراتيجية أوروبية للذكاء الاصطناعي"، مدعومة بمجموعات من الخبراء رفيعي المستوى في هذا المجال.[107][108] وفي أبريل من عام 2019م، أصدرت المفوضية الأوروبية "إرشادات أخلاقية للذكاء الاصطناعي الجدير بالثقة"،[109] تلتها توصيات سياسية واستثمارية للذكاء الاصطناعي الجدير بالثقة في يونيو من العام نفسه.[110] وتقوم مجموعة الخبراء رفيعة المستوى المعنية بالعمل بشأن الذكاء الاصطناعي الجدير بالثقة، والتي أصدرت المفوضية تقاريرها حول جوانب الأمان والمسؤولية في الذكاء الاصطناعي وأخلاقيات المركبات الآلية. وفي عام 2020م، سعت المفوضية إلى جمع الآراء حول اقتراح تشريع خاص بالذكاء الاصطناعي.[77]

في 2 فبراير 2020 أصدرت المفوضية الأوروبية "الورقة البيضاء بشأن الذكاء الاصطناعي: نهج أوروبي نحو التميز والثقة". تتألف هذه الورقة من محورين رئيسيين: الأول هو "نظام بيئي للتميز"، والثاني هو "نظام بيئي للثقة". ويبين المحور الثاني تحديدًا النهج الذي تتبعه الاتحاد الأوروبي لوضع إطار تنظيمي للذكاء الاصطناعي.[111][112] في النهج المقترح، قامت المفوضية بتمييز تطبيقات الذكاء الاصطناعي إلى فئتين: تطبيقات عالية المخاطر وتطبيقات أخرى. وتركز التشريعات المستقبلية للاتحاد الأوروبي على تنظيم تطبيقات الذكاء الاصطناعي عالية المخاطر فقط. ويعرف التطبيق بأنه عالي المخاطر إذا كان مستخدمًا في قطاع حرج مثل الرعاية الصحية أو النقل أو الطاقة، وبشكل قد يؤدي إلى أضرار جسيمة. وبالنسبة لتطبيقات الذكاء الاصطناعي عالية المخاطر، تركز المتطلبات بشكل أساسي على جودة "بيانات التدريب" و"تسجيل البيانات" و"المعلومات التي يجب إتاحتها" و"الموثوقية والدقة" و"الإشراف البشري". كما توجد متطلبات خاصة للاستخدامات المحددة مثل التعرف البيومتري عن بُعد.

يمكن تنظيم التطبيقات التي تستخدم الذكاء الاصطناعي والتي لا تصنف ضمن فئة "عالية الخطورة" وفقًا لنظام تصنيف تطوعي. وبالنسبة لضمان الامتثال والتطبيق، يمكن للجهة التنظيمية أن تعتمد على التقييمات السابقة للتوافق التي قد تشمل "اختبارات أو فحوصات أو شهادات" أو "فحص الخوارزميات ومجموعات البيانات المستخدمة في مرحلة التطوير". ويمكن أن يساهم إنشاء هيكل تعاوني أوروبي للذكاء الاصطناعي، يضم السلطات الوطنية المختصة، في تسهيل تنفيذ هذا الإطار التنظيمي.[113]

في 14 أبريل 2021 سُربت "مسودة يناير 2021" إلى فضاء الإنترنت، [114] قبل أن تُقدم المفوضية رسميًا "اقتراحًا تشريعيًا لوضع قواعد موحدة بشأن الذكاء الاصطناعي" بعد أسبوع.[115] وبعد فترة وجيزة، تم اقتراح "قانون الذكاء الاصطناعي" (AI Act) بشكل رسمي استنادًا إلى تلك المسودة.[116] ويتضمن هذا الاقتراح تطويرًا للنهج القائم على المخاطر لعام 2020، مع تقسيم تلك المخاطر إلى أربع فئات هي: "دنيا"، "محدودة"، "عالية"، و"غير مقبولة".[117] وقد لاقى هذا الاقتراح انتقادات لاذعة في النقاش العام، إذ أعرب الأكاديميون عن مخاوفهم إزاء العديد من العناصر الغامضة في الاقتراح، مثل التعريف الشامل لما يُعتبر ذكاءً اصطناعيًا، وتخوفهم من التداعيات القانونية غير المقصودة، لا سيما بالنسبة للفئات الضعيفة كالمرضى والمهاجرين.[118][119] وقد أُضيفت فئة "الذكاء الاصطناعي العام" إلى قانون الذكاء الاصطناعي لتشمل النماذج متعددة الاستخدامات مثل شات جي بي تي، والتي لم تكن تتوافق مع إطار التنظيم القائم على التطبيق.[120]

بخلاف التصنيفات الأخرى، يمكن تصنيف نماذج الذكاء الاصطناعي الشاملة بحسب قدراتها، لا بحسب استخداماتها فحسب. تُخضع النماذج الشاملة ذات القدرات المحدودة لمتطلبات الشفافية، بينما يجب على تلك التي تُصنف بأنها تشكل "مخاطر نظامية" (لا سيما تلك المدربة باستخدام قدرة حسابية تتجاوز 1025 فلوبس) أن تخضع لتقييم شامل. وقد تم إقرار نسخة محدثة من قانون الذكاء الاصطناعي في مايو 2024، [121] مع خطط لتطبيقه تدريجيًا.[122] كما سيتم حظر تقنيات التعرف على المشاعر والتعرف البيومتري عن بُعد في الوقت الحقيقي، مع وجود بعض الاستثناءات مثل تطبيقات إنفاذ القانون.[123]

أبدى مراقبون تخوفهم من تزايد المقترحات التشريعية تحت إدارة فون دير لاين. ويعزى تسارع هذه المبادرات التشريعية جزئيًا إلى الطموحات السياسية الطموحة للاتحاد الأوروبي، مما قد يعرض الحقوق الرقمية للمواطنين للخطر، لا سيما حق الخصوصية.[124] ويأتي هذا التخوف في ظل الضمانات غير المؤكدة لحماية البيانات من خلال الأمن السيبراني.[30] ومن بين المبادئ التوجيهية المعلنة في مجموعة متنوعة من المقترحات التشريعية في مجال الذكاء الاصطناعي تحت قيادة فون دير لاين،[125] برزت أهداف الاستقلال الاستراتيجي ومفهوم السيادة الرقمية.[126] وفي التاسع والعشرين من مايو لعام ألفين وأربعة وعشرين، أصدرت محكمة المدققين الأوروبية تقريرًا أشار إلى أن تدابير الاتحاد الأوروبي لم تكن منسقة بشكل جيد مع تدابير الدول الأعضاء، وأن مراقبة الاستثمارات لم تكن منهجية، وأن هناك حاجة إلى حوكمة أقوى.[127]

ألمانيا

في نوفمبر 2020 أصدر المعهد الألماني للتوحيد القياسي واللجنة الألمانية للتقنيات الكهربائية والإلكترونية وتكنولوجيا المعلومات، بالتعاون مع وزارة الاقتصاد وحماية المناخ الألمانية، النسخة الأولى من "خارطة الطريق القياسية الألمانية للذكاء الاصطناعي" (NRM KI)، وعرضها على الجمهور في القمة الرقمية للحكومة الألمانية. تصف هذه الخارطة المتطلبات المستقبلية للتشريعات والمعايير في سياق تطور الذكاء الاصطناعي.[128] ويهدف تنفيذ التوصيات الواردة فيها إلى تعزيز الاقتصاد الألماني والعلوم فيه، ومنافسة الدول الأخرى في مجال الذكاء الاصطناعي، وتوفير بيئة محفزة للإبداع في هذا المجال التكنولوجي الناشئ. وتتألف النسخة الأولى من هذه الوثيقة من مئتي صفحة أعدها ثلاثمائة خبير.[129]

نُشرت النسخة الثانية من خارطة الطريق تزامنًا مع قمة الحكومة الألمانية الرقمية في 9 ديسمبر 2022. وقد نسق المعهد الألماني للتوحيد القياسي جهود أكثر من 570 خبيرًا من مختلف المجالات، كالعلم والصناعة والمجتمع المدني والقطاع العام لإعدادها. وتتألف النسخة الثانية من 450 صفحة.[130]

تتناول الخارطة المواضيع الجوهرية في مجال تطبيقات الذكاء الاصطناعي، مثل الطب والتنقل والطاقة والبيئة والخدمات المالية وأتمتة الصناعة، والقضايا الأساسية المرتبطة به، مثل تصنيف الذكاء الاصطناعي والأمان والقدرة على الشهادة والنظم الاجتماعية التقنية والأخلاقيات.[130] كما تقدم نظرة شاملة للمصطلحات والمفاهيم الأساسية في مجال الذكاء الاصطناعي، وتوفر مجموعة واسعة من المصادر والمعلومات للمهتمين بهذا المجال. وتغطي الوثيقة، في مجملها، مئة وستة عشر حاجة للتوحيد القياسي، وتقدم ست توصيات أساسية للعمل.[131]

مجموعة الدول السبع

في 30 أكتوبر 2023 أقرّ أعضاء مجموعة الدول الصناعية السبع "أحد عشر مبدأً توجيهياً" لتصميم وإنتاج وتنفيذ أنظمة الذكاء الاصطناعي المتقدمة، بالإضافة إلى "مدونة سلوك طوعية" موجهة إلى مطوري الذكاء الاصطناعي في إطار ما يُعرف بـ "عملية هيروشيما".[132] وقد حظيت هذه الاتفاقية بإشادة أورسولا فون دير لاين التي اعتبرتها تتوافق مع المبادئ التوجيهية للذكاء الاصطناعي.

إيطاليا

أصدرت الهيئة الإيطالية لحماية البيانات الشخصية في أكتوبر 2023 مبادئ توجيهية لضمان أن تكون القرارات التي تتخذها الأنظمة الآلية شفافة وخاضعة للمراجعة البشرية وخالية من التحيز الخوارزمي.[133]

نيوزيلندا

حتى يوليو 2023 لم يكن هناك تشريع خاص ينظم تقنيات الذكاء الاصطناعي في نيوزيلندا. ومع ذلك، فإن القوانين القائمة، مثل قوانين حماية البيانات وحقوق الإنسان والتجارة العادلة والاتصالات الرقمية الضارة، تُستخدم لتنظيم استخدام هذه التقنيات.[134]

رعت الحكومة النيوزيلندية مشروعًا تجريبيًا مع المنتدى الاقتصادي العالمي في عام 2020 بعنوان "إعادة تصور التنظيم لعصر الذكاء الاصطناعي"، وذلك بهدف وضع أُسس تنظيمية متينة تحكم مجال الذكاء الاصطناعي.[135] وفي نفس العام، شهد قانون الخصوصية تحديثًا شاملًا ليشمل تنظيم استخدام البيانات الشخصية للمواطنين النيوزيلنديين في سياق تطبيقات الذكاء الاصطناعي.[136]

في عام 2023 أصدرت "مفوضية الخصوصية" إرشادات تفصيلية حول كيفية استخدام الذكاء الاصطناعي بما يتوافق مع مبادئ حماية الخصوصية للمعلومات.[137] وفي فبراير 2024 أعلنَ المدعي العام ووزير التكنولوجيا جوديث كولينز عن تشكيل "مجموعة عمل برلمانية عبر الأحزاب" مخصصة للذكاء الاصطناعي، مؤكدين على العمل الجاري لتطوير إطار عمل شامل لاستخدام الحكومة للذكاء الاصطناعي. وأوضحا في الوقت نفسه أنه لا توجد خطط حالية لإصدار تشريعات إضافية في هذا الصدد.[138]

الفلبين

في 2023 قُدِّمَ مشروع قانون في مجلس النواب الفلبيني يقترح إنشاء "هيئة تطوير الذكاء الاصطناعي" (AIDA)، والتي ستتولى مهمة الإشراف على تطوير هذا العلم وبحثه. وعلاوة على ذلك، اقترح المشروع أن تكون هذه الهيئة جهةً رقابيةً على الجرائم المرتكبة باستخدام الذكاء الاصطناعي.[139] كما نظرت "لجنة الانتخابات" في عام 2024 في حظر استخدام الذكاء الاصطناعي والتزييف العميق في الحملات الانتخابية. حيث تسعى اللجنة إلى تنفيذ تنظيمات يمكن أن تنطبق في وقت مبكر على "الانتخابات العامة لعام 2025".[140]

إسبانيا

في عام 2018، أقرت وزارة العلوم والابتكار والجامعات الإسبانية إستراتيجية شاملة للبحث والتطوير في حقل الذكاء الاصطناعي.[141]

مع تشكيل الحكومة الإسبانية الثانية برئاسة بيدرو سانشيز في يناير 2020، تمَّ تعزيز المجالات المرتبطة بالتكنولوجيات الحديثة، والتي كانت تتبع لوزارة الاقتصاد منذ عام 2018. وبهذا تأسست في عام 2020 أمانة الدولة للرقمنة والذكاء الاصطناعي.[142] انطلاقًا من هذه الهيئة العليا، وتنفيذًا للتوصيات الواردة في إستراتيجية البحث والتطوير في مجال الذكاء الاصطناعي لعام 2018، [143] تم وضع الإستراتيجية الوطنية للذكاء الاصطناعي (2020)، والتي تضمنت إجراءات محددة تتعلق بحوكمة الذكاء الاصطناعي والمعايير الأخلاقية التي يجب أن تحكم استخدامه. كما أُدرج هذا المشروع ضمن خطة التعافي والتحول والمرونة (2021).

خلال عام 2021، كشفت الحكومة عن نيتها تطوير هذه الأفكار من خلال إنشاء وكالة حكومية متخصصة،[142] وأذنت الميزانية العامة للدولة لعام 2022 بتأسيس هذه الوكالة، وخصصت لها مبلغًا قدره خمسة ملايين يورو لبدء أعمالها.[144] في اجتماعه المنعقد في 13 سبتمبر 2022، بدأ مجلس الوزراء عملية اختيار مقر الوكالة الإسبانية للذكاء الاصطناعي.[145][146] وقدمت ست عشرة مقاطعة إسبانية طلبات ترشح، واختارت الحكومة مدينة لا كورونيا التي اقترحت مبنى لا تيرازا.[147]

في 22 أغسطس 2023، أقرت الحكومة اللوائح الداخلية للوكالة.[148] وبذلك أصبحت إسبانيا أول دولة أوروبية تنشئ وكالة مخصصة للإشراف على الذكاء الاصطناعي، متقدمة بذلك على دخول اللوائح الأوروبية المستقبلية بشأن الذكاء الاصطناعي حيز التنفيذ، [149] والتي تشدد على ضرورة أن تكون للدول الأعضاء سلطة إشرافية في هذا المجال.

المملكة المتحدة

دعمت المملكة المتحدة تطبيق وتطوير تقنيات الذكاء الاصطناعي في المجال التجاري من خلال إستراتيجية الاقتصاد الرقمي للسنوات 2015-2018 التي أصدرتها "الابتكار في المملكة المتحدة" في مطلع عام 2015 كجزء من الإستراتيجية الرقمية الشاملة للمملكة.[150][150] وعلى صعيد القطاع العام، قدمت وزارة الثقافة الرقمية والإعلام والرياضة إرشادات بشأن أخلاقيات البيانات، فيما قدم معهد آلان تورينج توجيهات حول تصميم وتنفيذ أنظمة الذكاء الاصطناعي على نحو مسؤول.[151][152] وفي سياق الأمن السيبراني، أصدر المركز الوطني للأمن السيبراني في عام 2020 توجيهات حول "أدوات الأمن الذكي".[60][153] وفي العام الذي يليه، أعلنت المملكة المتحدة عن استراتيجيتها الوطنية للذكاء الاصطناعي التي تمتد لعشر سنوات، [154] والتي تبين الإجراءات اللازمة لتقييم المخاطر طويلة الأمد المرتبطة بالذكاء الاصطناعي، بما في ذلك المخاطر الكارثية الناتجة عن الذكاء الاصطناعي العام.[155]

في شهر مارس من عام 2023م، أصدرت المملكة المتحدة ورقة بيضاء بعنوان "نهج مؤيد للابتكار في تنظيم الذكاء الاصطناعي".[156] تقدم هذه الورقة مبادئ عامة تحكم الذكاء الاصطناعي، غير أنها تمنح المرونة الكافية للجهات التنظيمية القائمة لتكييف هذه المبادئ بما يتناسب مع مجالات محددة كالنقل أو الأسواق المالية.[157] وفي شهر نوفمبر من العام نفسه، استضافت المملكة المتحدة أول قمة للأمان في مجال الذكاء الاصطناعي، حيث سعى رئيس الوزراء ريشي سوناك جاهدًا لجعل المملكة المتحدة رائدة في تنظيم سلامة الذكاء الاصطناعي.[158][159] وخلال هذه القمة، أنشأت المملكة المتحدة "معهد سلامة الذكاء الاصطناعي"، والذي جاء تطويرًا لـ"فريق عمل الذكاء الاصطناعي المتقدم" الذي يرأسه "إيان هوغارث". وقد كُلف المعهد على وجه الخصوص بتعزيز تقييمات السلامة لأكثر نماذج الذكاء الاصطناعي تطورًا في العالم، والتي تعرف أيضًا بـ"نماذج الذكاء الاصطناعي المتقدمة".[160]

أشارت حكومة المملكة المتحدة إلى ترددها في التشريع المبكر، بحجة أن ذلك قد يقلل من نمو القطاع وأن القوانين قد تصبح قديمة بسبب المزيد من التقدم التكنولوجي.[161]

الولايات المتحدة

تتضمن المناقشات حول تنظيم الذكاء الاصطناعي في الولايات المتحدة مواضيع مثل مدى ملاءمة تنظيم الذكاء الاصطناعي، وطبيعة الإطار التنظيمي الفيدرالي اللازم لحوكمة وتعزيز الذكاء الاصطناعي، بما في ذلك أي وكالة يجب أن تتولى القيادة، والسلطات التنظيمية والحكومية لتلك الوكالة، وكيفية تحديث اللوائح في مواجهة التكنولوجيا المتغيرة بسرعة، فضلًا عن أدوار حكومات الولايات والمحاكم.[162]

2016–2017

في مطلع عام 2016، شرعت إدارة أوباما في التركيز على المخاطر والتنظيمات المتعلقة بالذكاء الاصطناعي. وفي تقرير عنوانه "التحضير لمستقبل الذكاء الاصطناعي"،[163] وضع المجلس الوطني للعلوم والتكنولوجيا سابقةً سمحت للباحثين بمواصلة تطوير تقنيات الذكاء الاصطناعي الحديثة مع قيودٍ محدودة. وقد جاء في التقرير أن "النهج الأمثل لتنظيم المنتجات المدعومة بالذكاء الاصطناعي لحفظ السلامة العامة ينبغي أن يستند إلى تقييم أوجه المخاطر".[164] وستكون هذه المخاطر المحرك الأساسي لإقامة أي شكل من أشكال التنظيم، علمًا بأن أي تنظيمات قائمة قد لا تتلاءم مع تكنولوجيا الذكاء الاصطناعي.

2018–2019

كان التقرير الرئيسي الأول هو "الخطة الوطنية الإستراتيجية للبحث والتطوير في مجال الذكاء الاصطناعي".[165] وفي 13 أغسطس 2018 أسس القسم 1051 من قانون تفويض الدفاع الوطني لعام 2019 "جون إس. مكين" (P.L. 115-232) "لجنة الأمن القومي للذكاء الاصطناعي" وذلك "لدراسة السُبل والوسائل اللازمة لتعزيز تطوير الذكاء الاصطناعي، وتعلُّم الآلة، والتقنيات المُرتبطةِ بها، لمُعَالجة احتياجات الأمن القومي والدفاع للولايات المتحدة بشكل شامل".[166] وتُقدَّم التوجيهات بشأن تنظيم الذكاء الاصطناعي المتعلق بالأمن بواسطة لجنة الأمن القومي للذكاء الاصطناعي.[167] كما قُدِّم مشروع قانون "مبادرة الذكاء الاصطناعي" (S.1558) والذي يهدف إلى إنشاء مبادرة فدرالية مُصمَّمة لتسريع البحث والتطوير في مجال الذكاء الاصطناعي، من بين أمور أخرى، لأغراض الأمن الاقتصادي والقومي للولايات المتحدة.[168][169]

في 7 يناير 2019 وبعد صدور أمر تنفيذي يهدف إلى صيانة الريادة الأمريكية في مجال الذكاء الاصطناعي، أصدر مكتب السياسة العلمية والتكنولوجية بالبيت الأبيض مسودة توجيه تنظيمي لتطبيقات الذكاء الاصطناعي.[170] تضمنت هذه المسودة عشرة مبادئ تسترشد بها وكالات الولايات المتحدة عند اتخاذ قرارات بشأن تنظيم الذكاء الاصطناعي وكيفية ذلك.[171] وفي هذا السياق أصدر المعهد الوطني للمعايير والتقانة ورقة موقف، [172] كما أصدر مجلس الابتكار الدفاعي توصياته بشأن الاستخدام الأخلاقي للذكاء الاصطناعي.[23] وبعد مرور عام دعت الإدارة إلى تقديم ملاحظات بشأن التنظيم في مسودة أخرى من توجيهاتها لتنظيم تطبيقات الذكاء الاصطناعي.[173]

من بين الوكالات الأخرى التي تتولى تنظيم شؤون الذكاء الاصطناعي، نجد "إدارة الغذاء والدواء" التي بادرت بوضع ضوابط تنظيمية لدمج تقنيات الذكاء الاصطناعي في مجال التصوير الطبي.[52] كما أصدر "المجلس الوطني للعلوم والتكنولوجيا" خطته الإستراتيجية الوطنية المعنية بالبحث والتطوير في حقل الذكاء الاصطناعي،[174] والتي خضعت لمراجعة عامة واسعة النطاق، وأُدخلت عليها تعديلات مقترحة بهدف تعزيز الثقة في تطبيقات الذكاء الاصطناعي.[175]

2021–2022

في شهر مارس 2021 أصدرت لجنة الأمن القومي المعنية بالذكاء الاصطناعي تقريرها الختامي، [176] الذي أفادت فيه بأن «التقدم الملحوظ في مجال الذكاء الاصطناعي، والذي يشمل إتقان قدرات الذكاء الاصطناعي الأكثر شمولية في أبعاد متعددة، من المحتمل أن يفتح آفاقًا جديدة من الإمكانات والتطبيقات. وقد تؤدي بعض هذه التطورات إلى نقلة نوعية أو قفزات في القدرات. ومن المحتمل أيضًا أن تثير هذه التطورات مخاوف وأخطارًا جديدة، مما يستوجب وضع سياسات وتوصيات جديدة، وتقديم حلول تقنية لضمان توافق الأنظمة مع الأهداف والقيم، بما في ذلك السلامة والقوة والموثوقية. ولذا، يتعين على الولايات المتحدة أن تتابع عن كثب التقدم المحرز في مجال الذكاء الاصطناعي وأن تستثمر في التكنولوجيا ذات الصلة، مع إيلاء الاهتمام اللازم للسياسات التي تضمن توافق الأنظمة وتطبيقاتها مع أهدافنا وقيمنا».

في يونيو 2022، قدم السيناتور روب بورتمان وغاري بيترز مشروع قانون "التخفيف من المخاطر الكارثية العالمية". وكان الهدف من هذا القانون "المساعدة في مواجهة خطر إساءة استخدام الذكاء الاصطناعي بطرق قد تشكل خطرًا كارثيًا".[177][178]

في 4 أكتوبر 2022 كشف الرئيس جو بايدن عن "وثيقة حقوق الذكاء الاصطناعي" الجديدة، والتي حددت خمسة حقوق ينبغي أن يتمتع بها المواطنون الأمريكيون في عصر الذكاء الاصطناعي. وتشمل هذه الحقوق: أن تكون أنظمة الذكاء الاصطناعي آمنة وفعالة، والحماية من التمييز الناتج عن الخوارزميات، وخصوصية البيانات، والحق في الإشعار والشرح، والحق في اللجوء إلى بدائل بشرية، والحق في مراجعة القرارات التي تتخذها أنظمة الذكاء الاصطناعي والرجوع إلى البشر عند الضرورة.[179] وقد قُدمت مسودة أولى لهذه الوثيقة في أكتوبر من العام السابق من قبل مكتب السياسة العلمية والتكنولوجية، وهو جهة حكومية أمريكية تتولى تقديم المشورة للرئيس في شؤون العلوم والتكنولوجيا.[180]

2023

اجتماع الرئيس بايدن بشأن الذكاء الاصطناعي مع أعضاء مجلس الشيوخ في المكتب البيضاوي في عام 2023.

في شهر يناير 2023، دخل حيز التنفيذ قانون مراجعة التحيز في مدينة نيويورك (القانون المحلي رقم 144) الذي كان قد أقره مجلس مدينة نيويورك في نوفمبر 2021.[181] وتأجل تاريخ سريانه بسبب الكم الهائل من الملاحظات التي وردت خلال الجلسة العامة حول القواعد المقترحة من قبل إدارة حماية المستهلك والعاملين لتوضيح متطلبات التشريع الجديد. وبالتالي، أصبح القانون ساري المفعول في 5 يوليو 2023.[182] واعتبارًا من هذا التاريخ، يُحظر على الشركات العاملة والعاملة بالتوظيف في مدينة نيويورك استخدام الأدوات الآلية في عملية اختيار المرشحين أو ترقية الموظفين، ما لم تخضع هذه الأدوات لمراجعة مستقلة للتأكد من خلوها من أي تحيز.

في يوليو من عام 2023م، تمكنت إدارة بايدن-هاريس من الحصول على التزامات طوعية من سبع شركات رائدة في مجال الذكاء الاصطناعي، وهي: أمازون، وأنثروبيك، وجوجل، وإنفلكشن، وميتا، ومايكروسوفت، وأوبن أيه آي. وقد تعهدت هذه الشركات بالقيام بعدة إجراءات هامة لإدارة المخاطر المرتبطة بهذا التكنولوجيا المتسارعة التطور. وشملت هذه الالتزامات:

  • اختبارات الأمان الشاملة: ضمان خضوع جميع منتجات الذكاء الاصطناعي لاختبارات أمان صارمة، سواء داخلية أو خارجية، قبل طرحها في السوق.
  • المسؤولية المجتمعية: مشاركة المعرفة والخبرات المتعلقة بإدارة مخاطر الذكاء الاصطناعي مع مختلف الأطراف المعنية، مثل الصناعات الأخرى، والحكومات، والمجتمع المدني، والأوساط الأكاديمية.
  • الأمن السيبراني: إيلاء اهتمام بالغ لأمن أنظمة الذكاء الاصطناعي وحماية مكوناتها السرية.
  • الشفافية: تطوير آليات واضحة لإعلام المستخدمين بأن المحتوى الذي يتلقونه تم توليده بواسطة الذكاء الاصطناعي، مثل إضافة علامات مائية مميزة.
  • النشر العلمي: نشر تقارير تفصيلية حول قدرات أنظمة الذكاء الاصطناعي التي طوروها، والقيود المفروضة عليها، ومجالات استخدامها المحتملة.
  • البحث في المخاطر الاجتماعية: توجيه جهود البحث نحو دراسة المخاطر الاجتماعية التي قد ينجم عنها استخدام الذكاء الاصطناعي، مثل التحيز، والتمييز، وانتهاكات الخصوصية.
  • حل المشكلات العالمية: تطوير تطبيقات للذكاء الاصطناعي تساهم في معالجة التحديات العالمية الملحة، مثل مكافحة السرطان والتخفيف من آثار تغير المناخ.

وفي شهر سبتمبر من العام نفسه، انضمت ثماني شركات أخرى إلى هذه المبادرة الطوعية، وهي: أدوبي، وكوهير، وآي بي إم، وإنفيديا، وبالانتير، وسيلزفورس، وسكيل أيه آي، وستابلتي أيه آي.[183][184]

في أكتوبر 2023 أشارت إدارة بايدن إلى نيتها إصدار أمر تنفيذي يستغل قوة المشتريات الحكومية الفيدرالية لوضع معايير للذكاء الاصطناعي، مما يعكس توجهًا حكوميًا استباقيًا نحو تنظيم تقنيات الذكاء الاصطناعي.[185] وفي 30 أكتوبر 2023 أصدر الرئيس بايدن هذا الأمر التنفيذي المتعلق بالذكاء الاصطناعي الآمن والموثوق به. يتناول الأمر التنفيذي مجموعة واسعة من القضايا، من بينها التركيز على المعايير المتعلقة بالبنى التحتية الحيوية، والأمن السيبراني المدعوم بالذكاء الاصطناعي، والمشاريع الممولة في مجال الهندسة الحيوية.[186]

يُخول هذا الأمر التنفيذي مختلف الوكالات والإدارات الحكومية الأمريكية، ومن بينها وزارتا الطاقة والدفاع، صلاحية تطبيق القوانين القائمة لحماية المستهلك والتي تستهدف تطويرات الذكاء الاصطناعي.[187] كما بُني هذا الأمر على اتفاقات سابقة أُبرمت مع شركات متخصصة في مجال الذكاء الاصطناعي، وذلك لتنفيذ مبادرات جديدة تهدف إلى اختبار نماذج الذكاء الاصطناعي ذات الاستخدامات المزدوجة، لا سيما تلك التي قد تنطوي على مخاطر أمنية، مع التزام هذه الشركات بمشاركة البيانات والنتائج مع الحكومة الفيدرالية.

بالإضافة إلى ذلك، يعترف الأمر التنفيذي بالتحديات الاجتماعية التي يطرحها الذكاء الاصطناعي، ويشجع الشركات المطورة لنماذج الذكاء الاصطناعي ذات الاستخدامات المزدوجة على إدراك هذه التحديات. فعلى سبيل المثال، ينص الأمر على ضرورة ألا يؤدي الذكاء الاصطناعي إلى تدهور جودة الوظائف أو إلى اضطرابات في سوق العمل. كما يشترط الأمر أن يعزز الذكاء الاصطناعي مبادئ العدالة والحقوق المدنية، وأن يتجنب أي أضرار قد تلحق بالفئات المهمشة.[188] علاوة على ذلك، دعا الأمر إلى إدراج "علامات مائية" في النماذج الأساسية للذكاء الاصطناعي، وذلك لمساعدة الجمهور على التمييز بين المحتوى الذي ينشأ بواسطة الإنسان وبين ذلك الذي ينشأ بواسطة الذكاء الاصطناعي. وقد أثارت هذه النقطة جدلًا وانتقادات واسعة من قبل الباحثين المتخصصين في مجال كشف التزييف العميق.[189]

2024

في فبراير من عام 2024 قدَّم السيناتور سكوت وينر إلى الهيئة التشريعية في ولاية كاليفورنيا مشروع قانونٍ حمل عنوان "الابتكار الآمن والمضمون لنماذج الذكاء الاصطناعي المتقدمة". وقد استند هذا المشروع بشكل كبير إلى الأمر التنفيذي الذي أصدره الرئيس بايدن، [190] حيث كان يهدف إلى الحدِّ من المخاطر الكارثية التي قد تنجم عن استخدام هذه النماذج من خلال فرض اختبارات أمان إلزامية عليها. ولو تم إقرار هذا المشروع، لكان قد أسس كذلك سحابة حوسبة عامة ممولة من المال العام في ولاية كاليفورنيا.[191] غير أن الحاكم غافن نيوسوم قد رفض هذا المشروع في 29 سبتمبر، مما يجعل من غير المحتمل تجاوز حق النقض الذي استخدمه، إذ يتطلب ذلك أغلبية ثلثي أعضاء كلٍّ من مجلسي الشيوخ والنواب.[192]

في 21 مارس 2024 أصدرت ولاية تينيسي قانونًا أُطلق عليه "قانون إلفيس"، وذلك بهدف التصدي المباشر لظاهرة التزييف العميق واستنساخ الأصوات.[193] يعتبر هذا التشريع الأول من نوعه على مستوى الولايات المتحدة الأمريكية الذي يهدف إلى تنظيم محاكاة الذكاء الاصطناعي للصور والأصوات والمظاهر.[194] وقد حظي القانون بإجماع أعضاء مجلسي النواب والشيوخ.[195] يأمل مؤيدو هذا القانون أن يشجع ولايات أخرى على اتخاذ إجراءات مماثلة، مما يساهم في توحيد الجهود لحماية حقوق الملكية الفكرية والخصوصية في العصر الرقمي، وتعزيز أهمية صون حقوق الفنانين وحمايتها من الاستخدام غير المشروع لأصواتهم وشخصياتهم.[196][197]

في 13 مارس 2024 وقَّع سبنسر كوكس حاكم ولاية يوتا على مشروع قانون رقم 149 الخاص بسياسة الذكاء الاصطناعي، والذي سيدخل حيز التنفيذ في الأول من مايو من العام نفسه. يحدد هذا القانون المسؤوليات، لا سيما تلك التي تقع على عاتق الشركات التي تمتنع عن الإفصاح عن استخدامها للذكاء الاصطناعي التوليدي كما هو مطلوب وفقًا لقوانين حماية المستهلك السارية في الولاية، أو في الحالات التي يرتكب فيها المستخدمون جرائم باستغلالهم للذكاء الاصطناعي التوليدي. كما ينص القانون على إنشاء مكتبٍ لسياسة الذكاء الاصطناعي وبرنامجٍ مختبريٍ للتعلم في مجال الذكاء الاصطناعي ذاته.[198][199]

تنظيم الأسلحة المستقلة بالكامل

منذ عام 2013، نوقشت المسائل القانونية المتعلقة بأنظمة الأسلحة المستقلة القاتلة (LAWS) داخل الأمم المتحدة، ضمن سياق الاتفاقية المتعلقة بأسلحة تقليدية معينة.[200] وقد عُقدت اجتماعات غير رسمية للخبراء في الأعوام 2014 و2015 و2016، وعُين مجموعة من الخبراء الحكوميين لإجراء دراسات أوسع في عام 2016، وتبنى الاجتماع مجموعة من المبادئ التوجيهية بشأن أنظمة الأسلحة المستقلة القاتلة في عام 2018.[201]

في عام 2016 نشرت الصين وثيقة موقف تشكك في كفاية القانون الدولي الحالي للتعامل مع احتمالية ظهور أسلحة مستقلة بالكامل، لتصبح أول عضو دائم في مجلس الأمن يناقش هذه القضية، [202] مما أدى إلى اقتراحات لتنظيم عالمي.[202] كما أثارت بعض الوفود الوطنية إمكانية فرض وقف مؤقت أو حظر استباقي على تطوير واستخدام أنظمة "الأسلحة الذاتية التشغيل" في إطار اتفاقية الأسلحة التقليدية، وهو ما تدعمه بشدة حملة "إيقاف الروبوتات القاتلة" وهي ائتلاف من المنظمات غير الحكومية.[203] من جهتها تؤكد الحكومة الأمريكية أن القانون الإنساني الدولي الحالي قادر على تنظيم تطوير واستخدام هذه الأنظمة. وأشارت دائرة الأبحاث في الكونغرس في عام 2023 إلى أن الولايات المتحدة لا تمتلك حاليًا أسلحة مستقلة قاتلة في مخزونها، إلا أن سياستها لا تحظر تطوير واستخدام هذه الأنظمة.[204]

انظر أيضًا

مراجع

  1. ^ ا ب Berryhill، Jamie؛ Heang، Kévin Kok؛ Clogher، Rob؛ McBride، Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. مؤرشف من الأصل (pdf) في 2019-12-20. اطلع عليه بتاريخ 2024-10-13.
  2. ^ Cath، Corinne (2018). "Governing artificial intelligence: ethical, legal and technical opportunities and challenges". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. ج. 376 ع. 2133: 20180080. Bibcode:2018RSPTA.37680080C. DOI:10.1098/rsta.2018.0080. PMC:6191666. PMID:30322996. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  3. ^ Erdélyi، Olivia J.؛ Goldsmith، Judy (2020). "Regulating Artificial Intelligence: Proposal for a Global Solution". arXiv:2005.11072 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  4. ^ ا ب ج Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN:2019668143. OCLC:1110727808. مؤرشف من الأصل في 2024-05-28. اطلع عليه بتاريخ 2024-10-13.
  5. ^ Tallberg، Jonas؛ Erman، Eva؛ Furendal، Markus؛ Geith، Johannes؛ Klamberg، Mark؛ Lundgren، Magnus (2023). "Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research". International Studies Review. ج. 25 ع. 3. arXiv:2305.11528. DOI:10.1093/isr/viad040. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  6. ^ ا ب Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Geyer، Carolin (24 يوليو 2018). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. ج. 42 ع. 7: 596–615. DOI:10.1080/01900692.2018.1498103. ISSN:0190-0692. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  7. ^ Buiten، Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. ج. 10 ع. 1: 41–59. DOI:10.1017/err.2019.8. ISSN:1867-299X. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2024-10-13.
  8. ^ "An Ethical Approach to AI is an Absolute Imperative, Andreas Kaplan" (بالإنجليزية). Archived from the original on 2019-12-17. Retrieved 2021-04-26.
  9. ^ ا ب ج د Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. Bibcode:2015PhyS...90a8001S. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-13.
  10. ^ Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-13.
  11. ^ Héder، M (2020). "A criticism of AI ethics guidelines". Információs Társadalom. ج. 20 ع. 4: 57–73. DOI:10.22503/inftars.XX.2020.4.5. S2CID:233252939. مؤرشف من الأصل في 2024-10-27. اطلع عليه بتاريخ 2024-10-13.
  12. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 May 2022). "AI-deploying organizations are key to addressing 'perfect storm' of AI risks". AI and Ethics (بالإنجليزية). 3 (1): 145–153. DOI:10.1007/s43681-022-00163-7. ISSN:2730-5961. PMC:9127285. PMID:35634256. Archived from the original on 2023-03-15. Retrieved 2022-05-30.
  13. ^ ا ب Vincent، James (3 أبريل 2023). "AI is entering an era of corporate control". The Verge. مؤرشف من الأصل في 2023-06-19. اطلع عليه بتاريخ 2023-06-19.
  14. ^ "Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance" (pdf). Artificial Intelligence Index. AI Index. 2023. مؤرشف (PDF) من الأصل في 2023-06-19. اطلع عليه بتاريخ 2023-06-19.
  15. ^ ا ب "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR.org (بالإنجليزية). Archived from the original on 2020-04-23. Retrieved 2017-11-27.
  16. ^ Gibbs، Samuel (17 يوليو 2017). "Elon Musk: regulate AI to combat 'existential threat' before it's too late". The Guardian. مؤرشف من الأصل في 2020-06-06. اطلع عليه بتاريخ 2017-11-27.
  17. ^ Kharpal، Arjun (7 نوفمبر 2017). "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says". CNBC. مؤرشف من الأصل في 2020-03-22. اطلع عليه بتاريخ 2017-11-27.
  18. ^ Kaplan، Andreas؛ Haenlein، Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. ج. 62: 15–25. DOI:10.1016/j.bushor.2018.08.004. مؤرشف من الأصل في 2024-10-01. اطلع عليه بتاريخ 2024-10-13.
  19. ^ Edwards, Benj (17 May 2023). "Poll: AI poses risk to humanity, according to majority of Americans". Ars Technica (بالإنجليزية). Archived from the original on 2023-06-19. Retrieved 2023-06-19.
  20. ^ Kasperowicz، Peter (1 مايو 2023). "Regulate AI? GOP much more skeptical than Dems that government can do it right: poll". Fox News. مؤرشف من الأصل في 2023-06-19. اطلع عليه بتاريخ 2023-06-19.
  21. ^ "Fox News Poll" (pdf). Fox News. 2023. مؤرشف (PDF) من الأصل في 2023-05-12. اطلع عليه بتاريخ 2023-06-19.
  22. ^ Artificial intelligence in society. Organisation for Economic Co-operation and Development. Paris. ISBN:978-92-64-54519-9. OCLC:1105926611. مؤرشف من الأصل في 2020-06-21. اطلع عليه بتاريخ 2024-10-13.{{استشهاد بكتاب}}: صيانة الاستشهاد: آخرون (link)
  23. ^ ا ب ج Bredt، Stephan (04 أكتوبر 2019). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. ج. 2. DOI:10.3389/frai.2019.00016. ISSN:2624-8212. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  24. ^ ا ب ج د White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. ص. 1. مؤرشف من الأصل (pdf) في 2020-04-19. اطلع عليه بتاريخ 2024-10-13.
  25. ^ Wirtz، Bernd W.؛ Müller، Wilhelm M. (03 ديسمبر 2018). "An integrated artificial intelligence framework for public management". Public Management Review. ج. 21 ع. 7: 1076–1100. DOI:10.1080/14719037.2018.1549268. ISSN:1471-9037. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  26. ^ Reisman، Dillon؛ Schultz، Jason؛ Crawford، Kate؛ Whittaker، Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (PDF). New York: AI Now Institute. مؤرشف من الأصل (pdf) في 2020-06-14. اطلع عليه بتاريخ 2024-10-13.
  27. ^ Iphofen، Ron؛ Kritikos، Mihalis (03 يناير 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science: 1–15. DOI:10.1080/21582041.2018.1563803. ISSN:2158-2041. مؤرشف من الأصل في 2024-09-14. اطلع عليه بتاريخ 2024-10-13.
  28. ^ AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (PDF). Washington, DC: United States Defense Innovation Board. 2019. OCLC:1126650738. مؤرشف من الأصل (pdf) في 2020-01-14. اطلع عليه بتاريخ 2024-10-13.
  29. ^ ا ب Babuta، Alexander؛ Oswald، Marion؛ Janjeva، Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (PDF). London: Royal United Services Institute. مؤرشف من الأصل (pdf) في 2020-05-02. اطلع عليه بتاريخ 2024-10-13.
  30. ^ ا ب "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 أبريل 2017. مؤرشف من الأصل في 2022-02-20. اطلع عليه بتاريخ 2017-12-24.
  31. ^ Bento، Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. مؤرشف من الأصل في 2020-03-23. اطلع عليه بتاريخ 2019-09-14.
  32. ^ Barfield، Woodrow؛ Pagallo، Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK: Edward Elgar Publishing. ISBN:978-1-78643-904-8. OCLC:1039480085. مؤرشف من الأصل في 2024-05-28. اطلع عليه بتاريخ 2024-10-13.
  33. ^ ا ب Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Geyer، Carolin (24 يوليو 2018). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. ج. 42 ع. 7: 596–615. DOI:10.1080/01900692.2018.1498103. ISSN:0190-0692. S2CID:158829602. مؤرشف من الأصل في 2020-08-18. اطلع عليه بتاريخ 2020-08-17.
  34. ^ Buiten، Miriam C. (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. ج. 10 ع. 1: 41–59. DOI:10.1017/err.2019.8. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2024-10-13.
  35. ^ Mantelero, Alessandro; Esposito, Maria Samantha (2021). "An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems". Computer Law & Security Review (بالإنجليزية). 41: 105561. arXiv:2407.20951. DOI:10.1016/j.clsr.2021.105561. ISSN:0267-3649. S2CID:237588123. Archived from the original on 2024-04-30. Retrieved 2024-10-13.
  36. ^ ا ب Artificial intelligence in society. Paris: Organisation for Economic Co-operation and Development. 11 يونيو 2019. ISBN:978-92-64-54519-9. OCLC:1105926611. مؤرشف من الأصل في 2020-06-21. اطلع عليه بتاريخ 2024-10-13.
  37. ^ Kamyshansky، Vladimir P.؛ Rudenko، Evgenia Y.؛ Kolomiets، Evgeniy A.؛ Kripakova، Dina R. (2020)، "Revisiting the Place of Artificial Intelligence in Society and the State"، Artificial Intelligence: Anthropogenic Nature vs. Social Origin، Advances in Intelligent Systems and Computing، Cham: Springer International Publishing، ج. 1100، ص. 359–364، DOI:10.1007/978-3-030-39319-9_41، ISBN:978-3-030-39318-2، S2CID:213070224، مؤرشف من الأصل في 2024-06-03، اطلع عليه بتاريخ 2024-10-13
  38. ^ "Special Issue on Soft Law Governance of Artificial Intelligence: IEEE Technology and Society Magazine publication information". IEEE Technology and Society Magazine. ج. 40 ع. 4: C2. ديسمبر 2021. DOI:10.1109/MTS.2021.3126194. مؤرشف من الأصل في 2024-08-07. اطلع عليه بتاريخ 2024-10-13.
  39. ^ ا ب ج د ه Marchant، Gary. ""Soft Law" Governance of AI" (pdf). AI Pulse. AI PULSE Papers. مؤرشف (PDF) من الأصل في 2023-03-21. اطلع عليه بتاريخ 2023-02-28.
  40. ^ ا ب ج Johnson، Walter G.؛ Bowman، Diana M. (ديسمبر 2021). "A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence". IEEE Technology and Society Magazine. ج. 40 ع. 4: 68–76. DOI:10.1109/MTS.2021.3123745. S2CID:245053179. مؤرشف من الأصل في 2024-09-24. اطلع عليه بتاريخ 2024-10-13.
  41. ^ Sutcliffe، Hillary R.؛ Brown، Samantha (ديسمبر 2021). "Trust and Soft Law for AI". IEEE Technology and Society Magazine. ج. 40 ع. 4: 14–24. DOI:10.1109/MTS.2021.3123741. S2CID:244955938. مؤرشف من الأصل في 2024-09-24. اطلع عليه بتاريخ 2024-10-13.
  42. ^ Schmit، C. D.؛ Doerr، M. J.؛ Wagner، J. K. (17 فبراير 2023). "Leveraging IP for AI governance". Science. ج. 379 ع. 6633: 646–648. Bibcode:2023Sci...379..646S. DOI:10.1126/science.add2202. PMID:36795826. S2CID:256901479. مؤرشف من الأصل في 2024-09-24. اطلع عليه بتاريخ 2024-10-13.
  43. ^ Lima-Strong، Cristiano (16 مايو 2024). "Youth activists call on world leaders to set AI safeguards by 2030". Washington Post. مؤرشف من الأصل في 2024-05-17. اطلع عليه بتاريخ 2024-06-24.
  44. ^ Haldane، Matt (21 مايو 2024). "Student AI activists at Encode Justice release 22 goals for 2030 ahead of global summit in Seoul". South China Morning Post. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-06-24.
  45. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (15 Jan 2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI. Computational Linguistics (Report) (بالإنجليزية). Berkman Klein Center for Internet & Society. Archived from the original on 2021-07-16. Retrieved 2021-07-04.
  46. ^ Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Sturm، Benjamin J. (15 أبريل 2020). "The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration". International Journal of Public Administration. ج. 43 ع. 9: 818–829. DOI:10.1080/01900692.2020.1749851. ISSN:0190-0692. S2CID:218807452. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  47. ^ ا ب Bredt، Stephan (04 أكتوبر 2019). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. ج. 2: 16. DOI:10.3389/frai.2019.00016. ISSN:2624-8212. PMC:7861258. PMID:33733105. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  48. ^ White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. ص. 1. مؤرشف من الأصل (pdf) في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  49. ^ Wirtz، Bernd W.؛ Müller، Wilhelm M. (03 ديسمبر 2018). "An integrated artificial intelligence framework for public management". Public Management Review. ج. 21 ع. 7: 1076–1100. DOI:10.1080/14719037.2018.1549268. ISSN:1471-9037. S2CID:158267709. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  50. ^ Reisman، Dillon؛ Schultz، Jason؛ Crawford، Kate؛ Whittaker، Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (PDF). New York: AI Now Institute. مؤرشف من الأصل (pdf) في 2020-06-14. اطلع عليه بتاريخ 2020-04-28.
  51. ^ "Towards Responsible Artificial Intelligence Innovation". UNICRI. يوليو 2020. مؤرشف من الأصل في 2022-07-05. اطلع عليه بتاريخ 2022-07-18.
  52. ^ ا ب Kohli، Ajay؛ Mahajan، Vidur؛ Seals، Kevin؛ Kohli، Ajit؛ Jha، Saurabh (2019). "Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging". American Journal of Roentgenology. ج. 213 ع. 4: 886–888. DOI:10.2214/ajr.18.20410. ISSN:0361-803X. PMID:31166758. S2CID:174813195. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2021-03-27.
  53. ^ Hwang، Thomas J.؛ Kesselheim، Aaron S.؛ Vokinger، Kerstin N. (17 ديسمبر 2019). "Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine". JAMA. ج. 322 ع. 23: 2285–2286. DOI:10.1001/jama.2019.16842. ISSN:0098-7484. PMID:31755907. S2CID:208230202. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2021-03-27.
  54. ^ Sharma، Kavita؛ Manchikanti، Padmavati (01 أكتوبر 2020). "Regulation of Artificial Intelligence in Drug Discovery and Health Care". Biotechnology Law Report. ج. 39 ع. 5: 371–380. DOI:10.1089/blr.2020.29183.ks. ISSN:0730-031X. S2CID:225540889. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2021-03-27.
  55. ^ Petkus، Haroldas؛ Hoogewerf، Jan؛ Wyatt، Jeremy C (2020). "What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies". Clinical Medicine. ج. 20 ع. 3: 324–328. DOI:10.7861/clinmed.2019-0317. ISSN:1470-2118. PMC:7354034. PMID:32414724. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  56. ^ Cheng، Jerome Y.؛ Abel، Jacob T.؛ Balis، Ulysses G.J.؛ McClintock، David S.؛ Pantanowitz، Liron (2021). "Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology". The American Journal of Pathology. ج. 191 ع. 10: 1684–1692. DOI:10.1016/j.ajpath.2020.10.018. ISSN:0002-9440. PMID:33245914. S2CID:227191875. مؤرشف من الأصل في 2024-04-30. اطلع عليه بتاريخ 2024-10-13.
  57. ^ ا ب ج Gurkaynak، Gonenc؛ Yilmaz، Ilay؛ Haksever، Gunes (2016). "Stifling artificial intelligence: Human perils". Computer Law & Security Review. ج. 32 ع. 5: 749–758. DOI:10.1016/j.clsr.2016.05.003. ISSN:0267-3649. مؤرشف من الأصل في 2024-10-09. اطلع عليه بتاريخ 2024-10-13.
  58. ^ Iphofen، Ron؛ Kritikos، Mihalis (03 يناير 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. ج. 16 ع. 2: 170–184. DOI:10.1080/21582041.2018.1563803. ISSN:2158-2041. S2CID:59298502. مؤرشف من الأصل في 2024-09-14. اطلع عليه بتاريخ 2024-10-13.
  59. ^ AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (pdf). Washington, DC: United States Defense Innovation Board. 2019. OCLC:1126650738. مؤرشف (PDF) من الأصل في 2020-01-14. اطلع عليه بتاريخ 2020-03-28.
  60. ^ ا ب ج Babuta، Alexander؛ Oswald، Marion؛ Janjeva، Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (PDF). London: Royal United Services Institute. مؤرشف من الأصل (pdf) في 2020-05-02. اطلع عليه بتاريخ 2020-04-28.
  61. ^ "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 أبريل 2017. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2017-12-24.
  62. ^ Bento، Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. مؤرشف من الأصل في 2020-03-23. اطلع عليه بتاريخ 2019-09-14.
  63. ^ Kissinger، Henry (1 نوفمبر 2021). "The Challenge of Being Human in the Age of AI". وول ستريت جورنال. مؤرشف من الأصل في 2021-11-04. اطلع عليه بتاريخ 2021-11-04.
  64. ^ ا ب Barrett، Anthony M.؛ Baum، Seth D. (23 مايو 2016). "A model of pathways to artificial superintelligence catastrophe for risk and decision analysis". Journal of Experimental & Theoretical Artificial Intelligence. ج. 29 ع. 2: 397–414. arXiv:1607.07730. DOI:10.1080/0952813x.2016.1186228. ISSN:0952-813X. S2CID:928824. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-13.
  65. ^ "AI Index Report 2024 - chapter 3: Responsible AI" (pdf). aiindex.stanford.edu. أبريل 2024. مؤرشف (PDF) من الأصل في 2024-05-24. اطلع عليه بتاريخ 2024-06-07.
  66. ^ Boyd، Matthew؛ Wilson، Nick (01 نوفمبر 2017). "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?". Policy Quarterly. ج. 13 ع. 4. DOI:10.26686/pq.v13i4.4619. ISSN:2324-1101. مؤرشف من الأصل في 2024-04-24. اطلع عليه بتاريخ 2024-10-13.
  67. ^ Innovation، Science and Economic Development Canada (16 مايو 2019). "Declaration of the International Panel on Artificial Intelligence". gcnws. مؤرشف من الأصل في 2020-03-29. اطلع عليه بتاريخ 2020-03-29.
  68. ^ "The world has a plan to rein in AI—but the US doesn't like it". Wired (بالإنجليزية). 08 Jan 2020. Archived from the original on 2020-04-18. Retrieved 2020-03-29.
  69. ^ "AI Regulation: Has the Time Arrived?". InformationWeek (بالإنجليزية). Archived from the original on 2020-05-23. Retrieved 2020-03-29.
  70. ^ ا ب ج د ه و ز UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 11 يونيو 2021. ISBN:978-92-3-100450-6. مؤرشف من الأصل في 2022-06-18. اطلع عليه بتاريخ 2021-09-18.
  71. ^ "Community". GPAI. مؤرشف من الأصل في 2023-03-30. اطلع عليه بتاريخ 2024-10-13.
  72. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع timear
  73. ^ G20 Ministerial Statement on Trade and Digital Economy (PDF). Tsukuba City, Japan: G20. 2019. مؤرشف من الأصل (pdf) في 2024-10-13. اطلع عليه بتاريخ 2024-10-13.
  74. ^ "International AI ethics panel must be independent". Nature (بالإنجليزية). 572 (7770): 415. 21 Aug 2019. Bibcode:2019Natur.572R.415.. DOI:10.1038/d41586-019-02491-x. PMID:31435065. Archived from the original on 2024-08-18. Retrieved 2024-10-13.
  75. ^ Guidelines for AI Procurement (pdf). Cologny/Geneva: World Economic Forum. 2019. مؤرشف (PDF) من الأصل في 2020-07-17. اطلع عليه بتاريخ 2020-04-28.
  76. ^ "High-Level Event: Artificial Intelligence and Robotics – Reshaping the Future of Crime, Terrorism and Security". UNICRI. مؤرشف من الأصل في 2022-07-18. اطلع عليه بتاريخ 2022-07-18.
  77. ^ ا ب ج د NíFhaoláin، Labhaoise؛ Hines، Andrew؛ Nallur، Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe (pdf). Dublin: Technological University Dublin, School of Computer Science, Dublin. ص. 1–12. مؤرشف (PDF) من الأصل في 2021-01-15. اطلع عليه بتاريخ 2021-03-27. تتضمن هذه المقالة نصًا متاحًا تحت رُخصة CC BY 4.0. (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors. More info: رخص المشاع الإبداعي) Changes were made as follows: citations removed and minor grammatical amendments.
  78. ^ "Recommendation on the ethics of artificial intelligence". UNESCO (بالإنجليزية). 27 Feb 2020. Archived from the original on 2022-07-18. Retrieved 2022-07-18.
  79. ^ Nindler، Reinmar (11 مارس 2019). "The United Nation's Capability to Manage Existential Risks with a Focus on Artificial Intelligence". International Community Law Review. ج. 21 ع. 1: 5–34. DOI:10.1163/18719732-12341388. ISSN:1871-9740. S2CID:150911357. مؤرشف من الأصل في 2022-08-30. اطلع عليه بتاريخ 2022-08-30.
  80. ^ "About". AI for Good (بالإنجليزية). Archived from the original on 2019-04-27. Retrieved 2023-04-06.
  81. ^ Taddeo, Mariarosaria; Floridi, Luciano (Apr 2018). "Regulate artificial intelligence to avert cyber arms race". Nature (بالإنجليزية). 556 (7701): 296–298. Bibcode:2018Natur.556..296T. DOI:10.1038/d41586-018-04602-6. PMID:29662138. Archived from the original on 2024-08-18. Retrieved 2024-10-13.
  82. ^ Jaiswal, Rishabh (5 Sep 2024). "US, Britain, EU to sign first international AI treaty". Reuters (بالإنجليزية). Archived from the original on 2024-09-23. Retrieved 2024-09-07.
  83. ^ Popova، Anna V.؛ Gorokhova، Svetlana S.؛ Abramova، Marianna G.؛ Balashkina، Irina V. (2021)، "The System of Law and Artificial Intelligence in Modern Russia: Goals and Instruments of Digital Modernization"، Emerald Expert Briefings، Studies in Systems, Decision and Control، Cham: Springer International Publishing، ج. 314، ص. 89–96، DOI:10.1007/978-3-030-56433-9_11، ISBN:978-3-030-56432-2، S2CID:234309883، مؤرشف من الأصل في 2024-09-25، اطلع عليه بتاريخ 2021-03-27
  84. ^ "OECD Observatory of Public Sector Innovation – Ai Strategies and Public Sector Components". OECD Observatory of Public Sector Innovation. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2020-05-04.
  85. ^ Berryhill، Jamie؛ Heang، Kévin Kok؛ Clogher، Rob؛ McBride، Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (pdf). Paris: OECD Observatory of Public Sector Innovation. مؤرشف (PDF) من الأصل في 2019-12-20. اطلع عليه بتاريخ 2020-05-05.
  86. ^ Campbell، Thomas A. (2019). Artificial Intelligence: An Overview of State Initiatives (PDF). Evergreen, CO: FutureGrasp, LLC. مؤرشف من الأصل (pdf) في 2020-03-31. اطلع عليه بتاريخ 2024-10-13.
  87. ^ Bradford, Anu (27 Jun 2023). "The Race to Regulate Artificial Intelligence". Foreign Affairs (بالإنجليزية). ISSN:0015-7120. Archived from the original on 2023-08-11. Retrieved 2023-08-11.
  88. ^ ا ب "Australia needs a national approach to AI strategy". Information Age. مؤرشف من الأصل في 2024-04-01. اطلع عليه بتاريخ 2023-11-08.
  89. ^ Innovation، Science and Economic Development Canada (22 يونيو 2022). "Government of Canada launches second phase of the Pan-Canadian Artificial Intelligence Strategy". www.canada.ca. مؤرشف من الأصل في 2023-10-26. اطلع عليه بتاريخ 2023-10-24.
  90. ^ Canada، Government of (18 أغسطس 2022). "Bill C-27 summary: Digital Charter Implementation Act, 2022". ised-isde.canada.ca. مؤرشف من الأصل في 2023-12-20. اطلع عليه بتاريخ 2023-10-24.
  91. ^ "Government Bill (House of Commons) C-27 (44–1) – First Reading – Digital Charter Implementation Act, 2022 – Parliament of Canada". www.parl.ca (بالإنجليزية). Archived from the original on 2022-09-02. Retrieved 2022-07-12.
  92. ^ The Moroccan Times (24 أبريل 2024). "Morocco Proposes Legislation for National AI Agency". The Moroccan Times. مؤرشف من الأصل في 2024-04-25. اطلع عليه بتاريخ 2024-04-25.
  93. ^ State Council China. "New Generation of Artificial Intelligence Development Plan". www.unodc.org (بالإنجليزية). Archived from the original on 2023-06-07. Retrieved 2022-07-18.
  94. ^ Department of International Cooperation Ministry of Science and Technology (سبتمبر 2017). "Next Generation Artificial Intelligence Development Plan Issued by State Council" (PDF). China Science & Technology Newsletter ع. 17: 2–12. مؤرشف من الأصل (pdf) في 2022-01-21. اطلع عليه بتاريخ 2024-10-13 – عبر وزارة الخارجية (الصين).
  95. ^ Wu, Fei; Lu, Cewu; Zhu, Mingjie; Chen, Hao; Zhu, Jun; Yu, Kai; Li, Lei; Li, Ming; Chen, Qianfeng; Li, Xi; Cao, Xudong (2020). "Towards a new generation of artificial intelligence in China". Nature Machine Intelligence (بالإنجليزية). 2 (6): 312–316. DOI:10.1038/s42256-020-0183-4. ISSN:2522-5839. S2CID:220507829. Archived from the original on 2022-07-18. Retrieved 2022-07-18.
  96. ^ "Ethical Norms for New Generation Artificial Intelligence Released". مركز الأمن والتكنولوجيا الناشئة (بالإنجليزية). Archived from the original on 2023-02-10. Retrieved 2022-07-18.
  97. ^ "China just gave the world a blueprint for reigning in generative A.I." Fortune (بالإنجليزية). Archived from the original on 2023-07-24. Retrieved 2023-07-24.
  98. ^ ا ب "Council of Europe and Artificial Intelligence". Artificial Intelligence (بالإنجليزية). Archived from the original on 2024-01-19. Retrieved 2021-07-29.
  99. ^ "The Framework Convention on Artificial Intelligence". Council of Europe (بالإنجليزية). Archived from the original on 2024-09-05. Retrieved 2024-09-05.
  100. ^ "Council of Europe opens first ever global treaty on AI for signature". Council of Europe (بالإنجليزية). 5 Sep 2024. Archived from the original on 2024-09-17. Retrieved 2024-09-17.
  101. ^ Peukert, Christian; Bechtold, Stefan; Kretschmer, Tobias; Batikas, Michail (30 Sep 2020). "Regulatory export and spillovers: How GDPR affects global markets for data". CEPR (بالإنجليزية). Archived from the original on 2023-10-26. Retrieved 2023-10-26.
  102. ^ Coulter, Martin (24 Aug 2023). "Big Tech braces for EU Digital Services Act regulations". Reuters (بالإنجليزية). Archived from the original on 2023-10-26. Retrieved 2023-10-26.
  103. ^ "Europe's new role in digital regulation". Le Monde.fr (بالإنجليزية). 28 Aug 2023. Archived from the original on 2023-10-26. Retrieved 2023-10-26.
  104. ^ Satariano, Adam (14 Jun 2023). "Europeans Take a Major Step Toward Regulating A.I." The New York Times (بالإنجليزية). ISSN:0362-4331. Archived from the original on 2023-10-26. Retrieved 2023-10-25.
  105. ^ Browne, Ryan (14 Jun 2023). "EU lawmakers pass landmark artificial intelligence regulation". CNBC (بالإنجليزية). Archived from the original on 2023-10-26. Retrieved 2023-10-25.
  106. ^ Anonymous (25 Apr 2018). "Communication Artificial Intelligence for Europe". Shaping Europe's digital future – European Commission (بالإنجليزية). Archived from the original on 2020-05-13. Retrieved 2020-05-05.
  107. ^ smuhana (14 Jun 2018). "High-Level Expert Group on Artificial Intelligence". Shaping Europe's digital future – European Commission (بالإنجليزية). Archived from the original on 2019-10-24. Retrieved 2020-05-05.
  108. ^ Andraško، Jozef؛ Mesarčík، Matúš؛ Hamuľák، Ondrej (02 يناير 2021). "The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework". AI & Society. ج. 36 ع. 2: 623–636. DOI:10.1007/s00146-020-01125-5. ISSN:0951-5666. S2CID:230109912. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2021-03-27.
  109. ^ "Ethics guidelines for trustworthy AI". European Commission. 2019. مؤرشف من الأصل في 2023-03-29. اطلع عليه بتاريخ 2022-05-30.
  110. ^ "Policy and investment recommendations for trustworthy Artificial Intelligence". Shaping Europe's digital future – European Commission (بالإنجليزية). 26 Jun 2019. Archived from the original on 2024-10-06. Retrieved 2020-05-05.
  111. ^ "White Paper on Artificial Intelligence – a European approach to excellence and trust". European Commission. 19 فبراير 2020. مؤرشف من الأصل في 2024-01-05. اطلع عليه بتاريخ 2021-06-07.
  112. ^ Broadbent, Meredith (17 Mar 2021). "What's Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?". www.csis.org (بالإنجليزية). Archived from the original on 2021-06-07. Retrieved 2021-06-07.
  113. ^ European Commission. (2020). White paper on artificial intelligence: a European approach to excellence and trust. OCLC:1141850140. مؤرشف من الأصل في 2023-11-22. اطلع عليه بتاريخ 2024-10-13.
  114. ^ Heikkilä, Melissa (2021-04-14). "POLITICO AI: Decoded: The EU's AI rules — Finland talks to machines — Facebook's fairness project" (newsletter). POLITICO. Retrieved 2021-05-14. نسخة محفوظة 2024-11-15 على موقع واي باك مشين.
  115. ^ "Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence". European Commission – European Commission. مؤرشف من الأصل في 2021-05-14. اطلع عليه بتاريخ 2024-10-13.
  116. ^ Pery، Andrew (06 أكتوبر 2021). "Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. مؤرشف من الأصل في 2022-02-18. اطلع عليه بتاريخ 2022-02-27.
  117. ^ Browne, Ryan (15 May 2023). "Europe takes aim at ChatGPT with what might soon be the West's first A.I. law. Here's what it means". CNBC (بالإنجليزية). Archived from the original on 2024-10-12. Retrieved 2023-10-25.
  118. ^ Veale, Michael; Borgesius, Frederik Zuiderveen (01 Aug 2021). "Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach". Computer Law Review International (بالإنجليزية). 22 (4): 97–112. arXiv:2107.03721. DOI:10.9785/cri-2021-220402. ISSN:2194-4164. S2CID:235765823. Archived from the original on 2023-03-26. Retrieved 2023-01-12.
  119. ^ van Kolfschooten، Hannah (يناير 2022). "EU regulation of artificial intelligence: Challenges for patients' rights". Common Market Law Review. ج. 59 ع. 1: 81–112. DOI:10.54648/COLA2022005. S2CID:248591427. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2023-12-10.
  120. ^ Coulter، Martin (7 ديسمبر 2023). "What is the EU AI Act and when will regulation come into effect?". Reuters. مؤرشف من الأصل في 2023-12-10. اطلع عليه بتاريخ 2024-06-01.
  121. ^ Browne, Ryan (21 May 2024). "World's first major law for artificial intelligence gets final EU green light". CNBC (بالإنجليزية). Archived from the original on 2024-05-21. Retrieved 2024-06-01.
  122. ^ "Artificial Intelligence Act: MEPs adopt landmark law". European Parliament (بالإنجليزية). 13 Mar 2024. Archived from the original on 2024-03-15. Retrieved 2024-06-01.
  123. ^ "Experts react: The EU made a deal on AI rules. But can regulators move at the speed of tech?". Atlantic Council. 11 ديسمبر 2023. مؤرشف من الأصل في 2024-10-12. اطلع عليه بتاريخ 2024-10-13.
  124. ^ Natale، Lara (فبراير 2022). "EU's digital ambitions beset with strategic dissonance". Encompass. مؤرشف من الأصل في 2024-06-14. اطلع عليه بتاريخ 2022-02-25.
  125. ^ Bertuzzi، Luca؛ Killeen، Molly (17 سبتمبر 2021). "Digital Brief powered by Google: make it or break it, Chips Act, showing the path". Euractiv. مؤرشف من الأصل في 2024-10-12. اطلع عليه بتاريخ 2022-02-25.
  126. ^ Propp، Kenneth (7 فبراير 2022). "France's new mantra: liberty, equality, digital sovereignty". Atlantic Council. مؤرشف من الأصل في 2022-02-25. اطلع عليه بتاريخ 2022-02-25.
  127. ^ "Artificial intelligence: EU must pick up the pace". European Court of Auditors. 29 مايو 2024. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-05-29.
  128. ^ Klimaschutz, BMWK-Bundesministerium für Wirtschaft und. ""KI – Made in Germany" etablieren". www.bmwk.de (بالألمانية). Archived from the original on 2023-06-12. Retrieved 2023-06-12.
  129. ^ "DIN, DKE und BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz". all-electronics (بالألمانية). Archived from the original on 2024-10-12. Retrieved 2023-06-12.
  130. ^ ا ب Runze, Gerhard; Haimerl, Martin; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023). "Ein Werkzeug für eine gemeinsame KI-Terminologie – Das AI-Glossary als Weg aus Babylon". Java Spektrum (بالألمانية) (3): 42–46. Archived from the original on 2024-04-27. Retrieved 2023-06-12.
  131. ^ "Normungsroadmap Künstliche Intelligenz". www.dke.de (بالألمانية). Archived from the original on 2024-10-12. Retrieved 2023-06-12.
  132. ^ "Hiroshima Process International Guiding Principles for Advanced AI system | Shaping Europe's digital future". digital-strategy.ec.europa.eu (بالإنجليزية). 30 Oct 2023. Archived from the original on 2023-11-01. Retrieved 2023-11-01.
  133. ^ Marzio Bartoloni (11 أكتوبر 2023). "Cures and artificial intelligence: privacy and the risk of the algorithm that discriminates". مؤرشف من الأصل في 2023-10-30. اطلع عليه بتاريخ 2024-10-13.
  134. ^ Rebecca (13 Jul 2023). "Why is regulating AI such a challenge?". Prime Minister's Chief Science Advisor (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-08-20.
  135. ^ "Reimagining Regulation for the Age of AI: New Zealand Pilot Project". World Economic Forum. 29 يونيو 2020. مؤرشف من الأصل في 2024-10-13. اطلع عليه بتاريخ 2024-10-13.
  136. ^ Cann، Geraden (25 مايو 2023). "Privacy Commission issues warning to companies and organisations using AI". Stuff. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-08-20.
  137. ^ "Artificial Intelligence and the IPPs". www.privacy.org.nz. 21 سبتمبر 2023. مؤرشف من الأصل في 2024-08-20. اطلع عليه بتاريخ 2024-08-20.
  138. ^ "Survey finds most Kiwis spooked about malicious AI - minister responds". NZ Herald (بالإنجليزية). 21 Feb 2024. Archived from the original on 2024-08-20. Retrieved 2024-08-20.
  139. ^ Arasa, Dale (13 Mar 2023). "Philippine AI Bill Proposes Agency for Artificial Intelligence". Philippine Daily Inquirer (بالإنجليزية). Archived from the original on 2024-09-25. Retrieved 2024-05-29.
  140. ^ Abarca, Charie (29 May 2024). "Comelec wants AI ban on campaign materials ahead of 2025 polls". Philippine Daily Inquirer (بالإنجليزية). Archived from the original on 2024-05-29. Retrieved 2024-05-29.
  141. ^ Ministry of Science of Spain (2018). "Spanish RDI Strategy in Artificial Intelligence" (pdf). www.knowledge4policy.ec.europa.eu. مؤرشف (PDF) من الأصل في 2023-07-18. اطلع عليه بتاريخ 2023-12-09.
  142. ^ ا ب "Chaining the chatbots: Spain closes in on AI Act". POLITICO (بالإنجليزية). 22 Jun 2023. Archived from the original on 2024-10-13. Retrieved 2023-09-03.
  143. ^ Ministry of Science of Spain (2018). "Spanish RDI Strategy in Artificial Intelligence" (PDF). www.knowledge4policy.ec.europa.eu. مؤرشف من الأصل (pdf) في 2023-07-18. اطلع عليه بتاريخ 2023-12-09.
  144. ^ Castillo, Carlos del (28 Dec 2021). "España vigilará la Inteligencia Artificial como a los fármacos o los alimentos". elDiario.es (بالإسبانية). Archived from the original on 2024-10-13. Retrieved 2023-09-03.
  145. ^ "España comienza el proceso para elegir la sede de la futura Agencia Española de Supervisión de la IA". El Español (بالإسبانية). 13 Sep 2022. Archived from the original on 2024-10-13. Retrieved 2023-09-03.
  146. ^ Marcos, José (12 Sep 2022). "El Gobierno inicia con la Agencia de Inteligencia Artificial el traslado de sedes fuera de Madrid". El País (بالإسبانية). Archived from the original on 2024-03-04. Retrieved 2023-09-03.
  147. ^ "A Coruña acogerá la Agencia Española de Inteligencia Artificial". Europa Press. 05 ديسمبر 2022. مؤرشف من الأصل في 2024-10-13. اطلع عليه بتاريخ 2023-09-03.
  148. ^ "El Gobierno aprueba el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial". Europa Press. 22 أغسطس 2023. مؤرشف من الأصل في 2024-10-13. اطلع عليه بتاريخ 2023-09-03.
  149. ^ Guerrini, Federico. "European Countries Race To Set The AI Regulatory Pace". Forbes (بالإنجليزية). Archived from the original on 2023-09-06. Retrieved 2023-09-04.
  150. ^ ا ب "Digital economy strategy 2015 to 2018". www.ukri.org. 16 فبراير 2015. مؤرشف من الأصل في 2022-09-01. اطلع عليه بتاريخ 2022-07-18.
  151. ^ "Data ethics and AI guidance landscape". GOV.UK (بالإنجليزية). Archived from the original on 2023-10-26. Retrieved 2023-10-26.
  152. ^ Leslie، David (11 يونيو 2019). "Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector". Zenodo. arXiv:1906.05684. DOI:10.5281/zenodo.3240529. S2CID:189762499. مؤرشف من الأصل في 2020-04-16. اطلع عليه بتاريخ 2020-04-28.
  153. ^ "Intelligent security tools". www.ncsc.gov.uk (بالإنجليزية). Archived from the original on 2020-04-06. Retrieved 2020-04-28.
  154. ^ Richardson، Tim. "UK publishes National Artificial Intelligence Strategy". www.theregister.com. مؤرشف من الأصل في 2023-02-10. اطلع عليه بتاريخ 2022-01-01.
  155. ^ "The National AI Strategy of the UK". GOV.UK. مؤرشف من الأصل في 2023-02-10. اطلع عليه بتاريخ 2024-10-13.
  156. ^ "A pro-innovation approach to AI regulation". GOV.UK (بالإنجليزية). Archived from the original on 2023-10-27. Retrieved 2023-10-27.
  157. ^ Gikay, Asress Adimi (08 Jun 2023). "How the UK is getting AI regulation right". The Conversation (بالإنجليزية). Archived from the original on 2023-10-27. Retrieved 2023-10-27.
  158. ^ Browne, Ryan (12 Jun 2023). "British Prime Minister Rishi Sunak pitches UK as home of A.I. safety regulation as London bids to be next Silicon Valley". CNBC (بالإنجليزية). Archived from the original on 2023-07-27. Retrieved 2023-10-27.
  159. ^ "AI Safety Summit: introduction (HTML)". GOV.UK (بالإنجليزية). Archived from the original on 2023-10-26. Retrieved 2023-10-27.
  160. ^ "Introducing the AI Safety Institute". GOV.UK (بالإنجليزية). Archived from the original on 2024-07-07. Retrieved 2024-07-08.
  161. ^ Henshall, Will (01 Apr 2024). "U.S., U.K. Will Partner to Safety Test AI". TIME (بالإنجليزية). Archived from the original on 2024-07-07. Retrieved 2024-07-08.
  162. ^ Weaver, John Frank (28 Dec 2018). "Regulation of artificial intelligence in the United States". Research Handbook on the Law of Artificial Intelligence (بالإنجليزية): 155–212. DOI:10.4337/9781786439055.00018. ISBN:9781786439055. Archived from the original on 2020-06-30. Retrieved 2020-06-29.
  163. ^ "The Administration's Report on the Future of Artificial Intelligence". whitehouse.gov (بالإنجليزية). 12 Oct 2016. Archived from the original on 2023-10-04. Retrieved 2023-11-01.
  164. ^ National Science and Technology Council Committee on Technology (أكتوبر 2016). "Preparing for the Future of Artificial Intelligence". البيت الأبيض دوت جوف. مؤرشف من الأصل في 2023-10-04. اطلع عليه بتاريخ 2024-10-13 – عبر National Archives.
  165. ^ "National Strategic Research and Development Plan for Artificial Intelligence" (PDF). National Science and Technology Council. أكتوبر 2016. مؤرشف من الأصل (pdf) في 2024-10-04. اطلع عليه بتاريخ 2024-10-13.
  166. ^ "About". National Security Commission on Artificial Intelligence (بالإنجليزية). Archived from the original on 2022-12-25. Retrieved 2020-06-29.
  167. ^ Stefanik، Elise M. (22 مايو 2018). "H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018". www.congress.gov. مؤرشف من الأصل في 2020-03-23. اطلع عليه بتاريخ 2020-03-13.
  168. ^ Heinrich، Martin (21 مايو 2019). "Text – S.1558 – 116th Congress (2019–2020): Artificial Intelligence Initiative Act". www.congress.gov. مؤرشف من الأصل في 2020-03-29. اطلع عليه بتاريخ 2020-03-29.
  169. ^ Scherer، Matthew U. (2015). "Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies". SSRN Working Paper Series. DOI:10.2139/ssrn.2609777. ISSN:1556-5068. مؤرشف من الأصل في 2024-07-09. اطلع عليه بتاريخ 2024-10-13.
  170. ^ Vought، Russell T. "MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES – Guidance for Regulation of Artificial Intelligence Applications" (pdf). The White House. مؤرشف (PDF) من الأصل في 2020-03-18. اطلع عليه بتاريخ 2020-03-28.
  171. ^ "AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation". Inside Tech Media (بالإنجليزية). 14 Jan 2020. Archived from the original on 2020-03-25. Retrieved 2020-03-25.
  172. ^ U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools (pdf). National Institute of Science and Technology. 2019. مؤرشف (PDF) من الأصل في 2020-03-25. اطلع عليه بتاريخ 2020-03-28.
  173. ^ "Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"". Federal Register. 13 يناير 2020. مؤرشف من الأصل في 2020-11-25. اطلع عليه بتاريخ 2020-11-28.
  174. ^ National Science Technology Council (21 يونيو 2019). "The National Artificial Intelligence Research and Development Strategic Plan: 2019 Update" (pdf). مؤرشف (PDF) من الأصل في 2023-08-25. اطلع عليه بتاريخ 2023-08-08.
  175. ^ Gursoy، Furkan؛ Kakadiaris، Ioannis A. (2023). "Artificial intelligence research strategy of the United States: critical assessment and policy recommendations". Frontiers in Big Data. ج. 6. DOI:10.3389/fdata.2023.1206139. ISSN:2624-909X. PMC:10440374. PMID:37609602. مؤرشف من الأصل في 2024-04-16. اطلع عليه بتاريخ 2024-10-13.
  176. ^ NSCAI Final Report (pdf). Washington, DC: The National Security Commission on Artificial Intelligence. 2021. مؤرشف (PDF) من الأصل في 2023-02-15. اطلع عليه بتاريخ 2021-05-27.
  177. ^ Homeland Newswire (25 يونيو 2022). "Portman, Peters Introduce Bipartisan Bill to Ensure Federal Government is Prepared for Catastrophic Risks to National Security". HomelandNewswire. مؤرشف من الأصل في 2022-06-25. اطلع عليه بتاريخ 2022-07-04.
  178. ^ "Text – S.4488 – 117th Congress (2021–2022): A bill to establish an interagency committee on global catastrophic risk, and for other purposes". Congress.gov. Library of Congress. 23 يونيو 2022. مؤرشف من الأصل في 2022-07-05. اطلع عليه بتاريخ 2022-07-04.
  179. ^ "Blueprint for an AI Bill of Rights | OSTP". The White House (بالإنجليزية). Archived from the original on 2023-10-31. Retrieved 2023-11-01.
  180. ^ "The White House just unveiled a new AI Bill of Rights". MIT Technology Review (بالإنجليزية). Archived from the original on 2023-10-26. Retrieved 2023-10-24.
  181. ^ "A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools". The New York City Council. مؤرشف من الأصل في 2023-10-18. اطلع عليه بتاريخ 2023-11-01.
  182. ^ Kestenbaum, Jonathan (5 Jul 2023). "NYC's New AI Bias Law Broadly Impacts Hiring and Requires Audits". Bloomberg Law (بالإنجليزية). Archived from the original on 2023-11-01. Retrieved 2023-10-24.
  183. ^ House, The White (21 Jul 2023). "FACT SHEET: Biden–Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI". The White House (بالإنجليزية). Archived from the original on 2023-09-25. Retrieved 2023-09-25.
  184. ^ House, The White (12 Sep 2023). "FACT SHEET: Biden–Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI". The White House (بالإنجليزية). Archived from the original on 2023-09-24. Retrieved 2023-09-25.
  185. ^ Chatterjee, Mohar (12 Oct 2023). "White House AI order to flex federal buying power". POLITICO (بالإنجليزية). Archived from the original on 2023-10-13. Retrieved 2023-10-27.
  186. ^ House, The White (30 Oct 2023). "FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence". The White House (بالإنجليزية). Archived from the original on 2024-01-30. Retrieved 2023-12-05.
  187. ^ Lewis, James Andrew; Benson, Emily; Frank, Michael (31 Oct 2023). "The Biden Administration's Executive Order on Artificial Intelligence". CSIS (بالإنجليزية). Archived from the original on 2023-12-05. Retrieved 2023-12-05.
  188. ^ House, The White (30 Oct 2023). "Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence". The White House (بالإنجليزية). Archived from the original on 2023-12-05. Retrieved 2023-12-05.
  189. ^ Lanum, Nikolas (07 Nov 2023). "President Biden's AI executive order has 'dangerous limitations,' says deepfake detection company CEO". FOXBusiness (بالإنجليزية). Archived from the original on 2023-12-05. Retrieved 2023-12-05.
  190. ^ Myrow، Rachael (16 فبراير 2024). "California Lawmakers Take On AI Regulation With a Host of Bills". KQED. مؤرشف من الأصل في 2024-07-11. اطلع عليه بتاريخ 2024-07-07.
  191. ^ De Vynck، Gerrit (08 فبراير 2024). "In Big Tech's backyard, California lawmaker unveils landmark AI bill". The Washington Post. مؤرشف من الأصل في 2024-02-09. اطلع عليه بتاريخ 2024-10-13.
  192. ^ Lee، Wendy (29 سبتمبر 2024). "Gov. Gavin Newsom vetoes AI safety bill opposed by Silicon Valley". Los Angeles Times. مؤرشف من الأصل في 2024-09-29. اطلع عليه بتاريخ 2024-09-29.
  193. ^ Kristin Robinson (2024). "Tennessee Adopts ELVIS Act, Protecting Artists' Voices From AI Impersonation". The New York Times. مؤرشف من الأصل في 2024-03-25. اطلع عليه بتاريخ 2024-03-26.
  194. ^ Ashley King (2024). "The ELVIS Act Has Officially Been Signed Into Law — First State-Level AI Legislation In the US". Digital Music News. مؤرشف من الأصل في 2024-10-12. اطلع عليه بتاريخ 2024-03-26.
  195. ^ Tennessee House (2024). "House Floor Session – 44th Legislative Day" (video). Tennessee House. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-03-26.
  196. ^ Audrey Gibbs (2024). "TN Gov. Lee signs ELVIS Act into law in honky-tonk, protects musicians from AI abuses". The Tennessean. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-03-26.
  197. ^ Alex Greene (2024). "The ELVIS Act". Memphis Flyer. مؤرشف من الأصل في 2024-09-25. اطلع عليه بتاريخ 2024-03-26.
  198. ^ Wodecki، Ben (27 مارس 2024). "Utah Passes Legislation Regulating Use of Artificial Intelligence". AI Business. مؤرشف من الأصل في 2024-04-25. اطلع عليه بتاريخ 2024-04-25.
  199. ^ "SB0149". le.utah.gov. مؤرشف من الأصل في 2024-04-29. اطلع عليه بتاريخ 2024-04-25.
  200. ^ "Background on Lethal Autonomous Weapons Systems in the CCW". United Nations Geneva. مؤرشف من الأصل في 2020-04-27. اطلع عليه بتاريخ 2020-05-05.
  201. ^ "Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System" (PDF). United Nations Geneva. مؤرشف من الأصل (pdf) في 2020-12-01. اطلع عليه بتاريخ 2020-05-05.
  202. ^ ا ب Baum، Seth (30 سبتمبر 2018). "Countering Superintelligence Misinformation". Information. ج. 9 ع. 10: 244. DOI:10.3390/info9100244. ISSN:2078-2489. مؤرشف من الأصل في 2024-06-06. اطلع عليه بتاريخ 2024-10-13.
  203. ^ "Country Views on Killer Robots" (pdf). The Campaign to Stop Killer Robots. مؤرشف (PDF) من الأصل في 2019-12-22. اطلع عليه بتاريخ 2020-05-05.
  204. ^ "Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems". Congressional Research Service. 15 مايو 2023. مؤرشف من الأصل في 2023-11-01. اطلع عليه بتاريخ 2023-10-18.