محمود رشدى
في صباح 26 ديسيمبر 1983، كانت الحرب الباردة على أشدها بين الولايات المتحدة والاتحاد السوفيتي، حينها قرعت أنظمة الإنذار المبكر في موسكو، وظهرت قراءات على أجهزة الكمبيوتر تُرجِّح إطلاق عدة صواريخ أمريكية في اتجاه روسيا، وقد كان العالم على أبواب حرب نووية بسبب خطأ إلكتروني، لولا رجاحة العقل البشري بقيادة الضابط السوفيتي السابق ستانيسلاف بيتروف، الذي قرر أن يميل إلى احتمالية أن الإنذار كاذب ويتحمل الأمر على أن يبلغ قيادته وحينها لم تكن الأمور قد آلت إلى ما هي عليه الآن.
أظهرت التحقيقات، فيما بعد، أن القمر الصناعي الروسي رصد ضوء الشمس المنعكس على بعض السحب وعرّفه خطأ بأنه محركات لصواريخ باليستية عابرة للقارات. فهل يمكن أن نعيش في مثل هذا الحادث خلال الأعوام المقبلة في ظل التطور السريع لأنظمة الذكاء الاصناعي، والمجالات الكثيرة التي اقتحمتها ثورة الذكاء التكنولوجية حتى نافست الإنسان في المجالات التي تتطلب عقلًا بشريا لاتخاذ أنسب القرارات؟.
في العقد الأخير، تسارعت التحسينات والاستثمارات في مجالات الذكاء الاصطناعي بحكم أنه الساحة المستقبلية للتنافس بين الأقطاب العالمية؛ إذ تسعى كافة الدول لمواكبة التطورات الهائلة في هذا المجال لكي لا تتخلف عن الركب، وحتى لا تصبح رهينة لدى الآخرين للدفاع عن أمنها، سيما وأن المجالات الأمنية والعسكرية باتت تدمج أنظمة الذكاء الاصطناعي في أسلحتها، وتغيرت معها ساحات المعركة وأدواتها.
ويشهد المجال التكنولوجي وقطاعات الذكاء الاصطناعي بوجه خاص تطورات متسارعة، رغبة من الدول العظمى في تحقيق الهيمنة التكنولوجية، إيمانًا منها بأنها مؤشر القطبية العالمية في الأعوام القادمة. فالولايات المتحدة تسعى للحفاظ على تربعها على قمة النظام الدولي، في مقابل الصين التي وضعت عام 2017 استراتيجية طموحة لتنمية صناعات الذكاء الاصطناعي لتصل إلى تريليون يوان صيني بحلول 2030، الأمر الذي رأته أمريكا تهديدًا للتوازن الاقتصادي والعسكري للقوى العالمية. وعلى الناحية الأخرى، نجد الجانب الروسي، ورغم أنه يتخلف عدة أجيال عن الطفرة التكنولوجية الأمريكية؛ إلا أن الاستخدامات الروسية السيبرانية والتدخل في الانتخابات الأمريكية 2016، بجانب اهتمام الرئيس بوتين بهذا المجال (في عام 2017، أعلن أن من يملك الذكاء الاصطناعي سيسود العالم) كل ذلك شكّل منافسًا قويًا في هذا المجال.
الأدوات الاصطناعية
يُعرّف الذكاء الاصطناعي في أبسط عبارته بأنه: هو أحد حقول البحث في العلوم الحاسوبية التي تُعنَى بتطوير الآلات والحواسيب لتصل إلى درجة معينة من درجات التفاعل البشري، بما يمكّنها من القيام بعمليات تفاعلية مثل الإنسان أو أكثر كفاءة منه، أي قيام أجهزة حاسوبية بأعمال روتينة وتشغيلية دون تدخل مباشر من الإنسان، وتتنوع التطبيقات الحالية ما بين الرصد والتحليل، ويظل القرار النهائي بيد الإنسان، ولكن في ظلّ التطورات السريعة فمن المحتمل أن نصل إلى درجة الذكاء الاصطناعي الخارق الذي تصل فيه نسبة التفكير والتحليل إلى درجة التفكير البشري، بما يمكّنه من اتخاذ القرارات، وهو الوضع الأكثر خطورة على البشر.
وتتضمن الأدوات الاصطناعية تطبيقات وبرمجيات تتحكم في الآلات بطريقة تشبه -إلى حدٍّ كبير- التفاعل البشري، وربما تتفوق عليه في كثير من الحالات، مثل مجال البيانات الضخمة، حيث أثرت التقنيات التي تستخدم الذكاء الاصطناعي بالفعل في العديد من جوانب حياة المواطنين، كالهواتف الذكية، ونظم الخرائط والملاحة، وتحليل النص، وكذلك الحملات التسويقية والإعلامية المخصصة على وسائل التواصل الاجتماعي، وجميعها تطبيات ليست سوى نزر يسير من الطرق العديدة التي تندمج بها تطبيقات الذكاء الاصطناعي في كل مكان بالحياة اليومية.
التطبيقات الأمنية للذكاء الاصطناعي
أثبتت الاستخدامات العسكرية للذكاء الاصطناعي جدارتها في مجال الدفاع الجوي وتطوير الأجهزة والأنظمة الهجومية؛ إذ يمكن لعددٍ متزايدٍ من المركبات الآلية والأسلحة المستقلة العمل في مناطق القتال التي تشكل خطورة كبيرة على المقاتلين من البشر، كما أصبحت الأنظمة الدفاعية الذكية قادرة بشكل مطرد على اكتشاف الهجمات وتحليلها والاستجابة لها بشكل أسرع وأكثر فعالية مما يستطيع المشغلون البشريون القيام به. وتوفر أنظمة تحليل البيانات الضخمة وعدًا باستيعاب كميات ضخمة من المعلومات التي لا يمكن لأي مجموعة من المحللين البشريين أن تدركها. وبالتالي تساعد صانعي القرار العسكريين على اختيار مسارات عمل أفضل بسرعة أكبر. ونتيجة لذلك، تعمل الولايات المتحدة والصين وروسيا والقوى العسكرية المتقدمة الأخرى على تطوير تطبيقات عسكرية للذكاء الاصطناعي، بما يمكن من تغيير طبيعة الحرب في السنوات القادمة.
وما يثير المخاوف هو التنافس العالمي والتطور السريع بدون رقابة للتطبيقات التقنية، وغياب الجوانب الأخلاقية لاستخدام القوات العسكرية للذكاء الاصطناعي في الحرب أو حتى لتعزيز الأمن في وقت السلم، حيث تتزايد احتمالات قتل الآلات للأشخاص دون موافقة مباشرة من المشغلين البشريين، وربما حتى بدون إشرافهم أو قدرتهم على التدخل إذا حددت الأسلحة أهدافًا خاطئة. فضلًا عن تطبيقات الذكاء الاصطناعي الأخرى، مثل أنظمة دعم القرار التي قد تحث على اتخاذ إجراءات تصعيدية، أو حتى الهجمات الوقائية، دون أن يتمكن القادة من فحص الاحتمالات الأخرى.
وبجانب المخاوف السابقة، أثار خبراء عسكريون في مؤسسة راند للأبحاث، احتمالية احتجاز المواطنين أو حتى القتل من قبل التطبيقات التقنية المتطورة، نتيجة لنظام التعرف على الوجوه أو بعض حسابات الذكاء الاصطناعي المعقدة الأخرى التي تُخطئ في التعرف عليهم كإرهابيين أو أعداء.
وهنا يمكننا التمييز بين ثلاثة أنواع من تطبيقات الذكاء الاصطناعي بناءً على درجة مشاركة الإنسان في المواقف القتالية طبقًا لحلقة من القرارات البشرية في المجال الأمني (المراقبة، والتوجيه، واتخاذ القرار والتصرف). النوع الأول يتضمن تطبيقات منخفضة الاستقلالية “low automated” أو “semi-autonomous”، وهي أنظمة مؤتمتة تتمتع بالقدرة على أداء مهام مكتوبة وفقًا لمجموعات من القواعد المحددة، وفي هذا المستوى يمكن للأنظمة أو الأسلحة المؤتمتة مراقبة العدو، وتوجيه السلاح بشكل مستقل، كما يمكنها العثور على أهداف العدو وتحديدها ووضعها في مرمى الاشتباك، ولكنها تحتاج إلى إذن بشري صريح للاشتباك.
والنوع الثاني يُسمى تطبيقات مستقلة خاصة للإشراف “supervised autonomous”، حيث يُمكن للسلاح العثور على الأهداف وتحديدها والاشتباك معها بشكل مستقل دون تفاعل بشري، لكن الإنسان يراقب الموقف ولديه القدرة على التدخل لمنع الاشتباك أو إيقافه. أما النوع الثالث فهو يسمى “fully autonomous”، إذ يكون السلاح مستقلًا تمامًا عن التوجيه البشري، وحينها تتوقف قدرة الإنسان على التدخل حتى في حالة التوجيه أو المراقبة الخطأ للعدو.
مخاطر الذكاء الاصطناعي
في عام 2015 في مؤتمر “Open Letter from AI & Robotics Researchers”، حذر باحثو الذكاء الاصطناعي، أمثال ستيفن هوكينح وإيلون ماسك، من سباق التسلح بالذكاء الاصطناعي، والانتشار المحتمل للأنظمة المستقلة الفتاكة، ووسقوطها بيد الإرهابيين أو الديكتاتوريين، بما يُمكّنهم من تطوير أسلحة هجومية تتجاوز السيطرة البشرية.
وفي هذا التقرير، سنسلط الضوء على المخاطر التي تتعلق بتطبيقات الذكاء الاصطناعي العسكرية. وتنقسم المخاطر إلى ثلاثة محاور؛ تضمن الاعتبارات القانونية والتشغيلية والاستراتيجية، مع الوضع في الاعتبار التطبيقات الحالية والتطبيقات الأخرى في طور التحديث خلال العقد القادم.
الأبعاد القانونية والإنسانية
تغيب عن المؤسسات القانونية الدولية الحالية أية معاهدات أو اتفاقيات تحظر التطوير أو خفض مستوى التسلح في حقل تطبيقات الذكاء الاصطناعي العسكرية، حيث تشكل الهياكل القانونية قيودًا رسمية لسلوك الدول، وعادةً ما توفر نظامًا لإدارة عواقب الانتهاكات، وبالتالي تقديم سبب إضافي لاتخاذ الإجراءات أو الامتناع عنها. على سبيل المثال، قانون النزاعات المسلحة LOAC، المعروف أيضًا باسم القانون الإنساني الدولي (IHL)، يهدف إلى تنظيم سلوك الأعمال العدائية وتقليل الأضرار الإنسانية التي تلحق بالمدنيين، إذ يجب على المتحاربين التمييز بين المدنيين والمقاتلين وتوجيه العمليات العسكرية ضد الأهداف العسكرية فقط.
وبالنسبة لتطبيقات الذكاء الاصطناعي العسكرية، فإن أنظمة الأسلحة ذاتية التحكم (التي تُعرَّف على أنها أسلحة تختار الأهداف وتشتبك معها دون إذن بشري) غير قادرة على الامتثال لمبدأ قانون النزاعات، كما أنها لا تمتلك القدرة على فهم وتقييم الإشارات الدقيقة مثل لغة الجسد التي من شأنها أن تسمح بالتمييز بين “المدنيين الخائفين والعدو المهدد.” فضلًا عن المناطق الحضرية، حيث لا يرتدي المقاتلون دائمًا زيًا رسميًا أو شارات أخرى.
ومن المخاطر الأخلاقية ذات الصلة أن استخدام الأسلحة المستقلة يخلق فجوة في المساءلة التي تخدم عدة أغراض؛ ففي البداية فهي تمثل:
- رادعًا ضد إجراء ضار من خلال التهديدات الموثوقة باتخاذ تدابير عقابية ضد الفاعلين المسئولين.
- ضمان أن جهة فاعلة معينة تتحمل مسئولية اتخاذ خطوات لضمان الامتثال للعوامل القانونية ذات الصلة بالعمل.
- العمل كمفهوم أخلاقي مهم يحدد المسئولية الأخلاقية لفعل ما، بما في ذلك تحديد العقوبة الأخلاقية المعقولة، حيث إن هناك شخصًا مسئولًا عند استخدام الأسلحة المستقلة، فليس من الواضح من هو الذي يوصف بشكل مناسب بأنه “يستخدم” سلاحًا ذاتي التشغيل، وبالتالي هناك مجال واسع لنقل المسئولية إلى الأخرى، أو الأسوأ من ذلك وهو عدم نقل المسئولية إلى أحد. بالإضافة إلى ذلك، فإن المخاطر العالية للحوادث والتأثيرات الناشئة مع أنظمة الذكاء الاصطناعي تجعل من الصعب تقييم ما إذا كان يمكن اعتبار النتيجة الضارة بشكل مناسب مسئولية العامل البشري أو المطور أو المختبِر، أو بالأحرى مجرد تطور لا يمكن التنبؤ به مع عدم وجود أحد في النهاية عند الخطأ.
الأبعاد الفنية
تُشير المخاطر التشغيلية إلى الأخطار المرتبطة بالأداء المقصود للذكاء الاصطناعي في التطبيقات العسكرية، وهي مخاطر تنطوي على طرق قد يفشل فيها استخدام الذكاء الاصطناعي العسكري بطرق غير مقصودة أو غير متوقعة.
- الثقة والمصداقية:
تتعلق مخاطر الثقة بأولئك المرتبطين بكل من عدم الثقة بالأنظمة بشكل كافٍ أو هؤلاء الذين يثقون بها بشكل مبالغ فيه. فيما يتعلق بالأول، هناك عدة عقبات أمام تطوير الثقة في الأنظمة التي تدعم الذكاء الاصطناعي. أولًا، هناك ما يشار إليه أحيانًا بمشكلة “الصندوق الأسود”، أو مشكلة أن أنظمة الذكاء الاصطناعي تصل إلى استنتاجات وتنتج مخرجات بطرق غير واضحة، أو يسهل شرحها للبشر، وتكمن المشكلة في أن طبيعة الخوارزميات المعقدة لا تسمح للمرء بالعودة بسهولة من خلال معالجة النظام لفهم سبب وصوله إلى المخرجات التي حققها. إذا لم يفهم المشغلون البشريون كيفية عمل النظام الذي يستخدمونه، فقد لا يطورون الثقة في النظام اللازمة لاستخدامه بشكل مناسب، وبالتالي يستبعدون الفوائد المحتملة للنظام أو يسيئون استخدامه بطرق قد تكون ضارة.
والعامل الثاني يتمثّل في أن لدى المشغلين أو القادة ثقة مفرطة في أنظمة الذكاء الاصطناعي، حتى عندما ترتكب هذه الأنظمة أخطاء، حيث أظهرت الدراسات في مجال الطيران والتطبيقات الأخرى وجود مشكلات ناجمة عن “تحيز الأتمتة” “automation bias”، والذي “يحدث عندما يتجاهل صانع القرار البشري أو لا يبحث عن معلومات متناقضة في ضوء حل تم إنشاؤه بواسطة الكمبيوتر، ويتم قبوله على أنه صحيح.
- القرصنة وتسمم البيانات Hacking, Data-Poisoning:
هناك خطر آخر يُلاحظ كثيرًا للأنظمة العسكرية للذكاء الاصطناعي ينبع من تآلف هذه الأنظمة مع الجهات الفاعلة الخبيثة. وفي ظل كثرة الحوادث السيبرانية التي تقع على الصعيد العسكري والمدني على حد سواء، فمن الواضح أن جميع التقنيات التي تدعمها الشبكات معرضة للقرصنة، ولا سيما من قبل خصم لديه تقنيات متطورة، حتى الشبكات المغلقة معرضة لهجمات وغيرها من وسائل الوصول لأغراض ضارة.
علاوة على ذلك، أنظمة التعلم الآلي (ML) التي تتعلم من التدريب على البيانات معرضة لأنواع أخرى من الهجمات، بما في ذلك ما يُسمى بهجمات تسمم البيانات، والتي يتم فيها التلاعب ببيانات التدريب أو انتحالها من أجل التأثير على الأداء المقصود للنظام، كما يمكن أن تفشل الأنظمة التي تدعم الذكاء الاصطناعي أيضًا بسبب الهجمات العدائية المصممة عمدًا لخداع الخوارزميات لارتكاب خطأ.
- البُعد الاستراتيجي:
شجعت المميزات المفترضة للذكاء الاصطناعي العسكري الاستثمار ليس فقط من قبل الولايات المتحدة، ولكن أيضًا من قبل الصين وروسيا والجهات الفاعلة الأخرى، وتثير هذه التطورات مخاوف بشأن استقرار النظام الدولي. وتتمثل إحدى ميزات الذكاء الاصطناعي العسكري، مثل المزايا الناشئة عن المركبات الجوية غير المأهولة (UAVs) أي الدرونز، في أنه يمكن استخدام هذه الأنظمة في المهمات الخطيرة. ومع ذلك، فقد لوحظ أن هذه الميزة للأنظمة المستقلة تخلق أيضًا خطرًا بأن القادة سيلجئون إلى استخدام أنظمة الحكم الذاتي المسلحة بدلًا من السعي وراء الخيارات غير العسكرية.
وبهذه الطريقة، سيكون اللجوء إلى العمل العسكري أسهل، ومع المزيد من التصعيد العسكري ستكون هناك تكاليف أكبر على المدنيين الأبرياء. فعلى سبيل المثال، ترى هيومن رايتس ووتش أن الحدود الدنيا للنزاع الناجم عن الأسلحة المستقلة ستحول عبء النزاع المسلح من الجنود إلى المدنيين في مناطق القتال، كما ستخلق الخيارات العسكرية خطر تصاعد النزاعات.
- إدارة التصعيد:
أشار البعض إلى أن الذكاء الاصطناعي العسكري يخلق خطر “الحرب الخاطفة” التي لم يقصدها أي من طرفي النزاع، نظرًا لأن الأنظمة المستقلة يتم نشرها بشكل أكثر انتظامًا، ربما على مقربة من الخصوم الذين يستخدمون أنظمتهم الذاتية المستقلة. فهناك خطر يتمثل في تنفيذ العمليات العسكرية ليس فقط بسرعة، ولكن بسرعة الماكينة. من المحتمل أن تتقلص مساحة المفاوضات الدبلوماسية المتعمدة، مما يزيد من مخاطر سوء التقدير وسوء الفهم، وبالتالي يؤدي إلى إمكانية حدوث تغييرات سريعة وغير مقصودة وعرضية، الأمر الذي يؤدي إلى صعوبة التنبؤ بكيفية اشتداد الصراعات، وستكون إدارة التصعيد أكثر تعقيدًا.
- التوسع:
في الفترة الراهنة، يتمّ إجراء الكثير من عمليات البحث والتطوير في مجال الذكاء الاصطناعي من قبل القطاع الخاص وباحثين غير حكوميين، وأدت هذه الجهود إلى تطوير هذه التكنولوجيا بشكل كبير، وتحديد أنواع جديدة من التطبيقات منخفضة التكاليف، وقد أنشأ الباحثون أيضًا أدوات مفتوحة المصدر لتعزيز الاستخدام الواسع على الرغم من أن هذه الأبحاث والأدوات لا ترتكز على التطبيقات العسكرية، ولكن العديد من هذه القدرات مزدوجة أو متعددة الاستخدامات عبر السياقات المدنية والعسكرية. على سبيل المثال، في تصوير مستقبلي للاستخدام الخبيث لأدوات مفتوحة المصدر، يصور فيديو “Slaughterbots” مزيجًا من ثلاث تقنيات: الطائرات بدون طيار الصغيرة، وتكنولوجيا التعرف على الوجه، والأسلحة.
ورغم أن الأصدارات التجارية الحالية أقل تطورًا من تلك الموجودة بالفيديو، ولكن مع تحسن هذه الأنواع من حيث القدرات وانخفاض التكاليف فسيكون الوصول إليها أكثر سهولة للجهات الفاعلة خارج القوى العالمية التقليدية، وذلك كما أشار مؤتمر “الرسالة المفتوحة لعام 2015” من أن “الأسلحة المستقلة ستصبح بنادق كلاشينكوف الغد، وأن الأمر سيكون مسألة وقت فقط حتى تظهر في السوق السوداء وفي أيدي الإرهابيين”.
وحتى الآن، تمتلك قرابة 30 دولة أنظمة عسكرية إلكترونية، وقد استفادت كوريا الشمالية وإيران بالفعل من برامجها الإلكترونية لمجموعة متنوعة من الأغراض الخبيثة، وبالإضافة إلى ذلك استفاد القراصنة أيضًا من مصادر الإنترنت المتاحة بسهولة من سرقة الهويات والمال والمعلومات.
- الاستقرار العالمي:
يتمثل الخطر الاستراتيجي الأخير في أنه مع تطور الأدوات التي تدعم الذكاء الاصطناعي، تضعف المبادئ الأساسية التي ضمنت الاستقرار النسبي بين القوى العالمية منذ الحرب العالمية الثانية. على وجه الخصوص، قد تصبح الأنظمة التي تدعم الذكاء الاصطناعي متقدمة إلى درجة تقوضها قدرات “الضربة الثانية” الضرورية لردع الحرب النووية من خلال مبدأ التدمير المتبادل المؤكد. وقد بحث تقرير حديث لمؤسسة RAND في احتمال أن مثل هذا التطور السريع للذكاء الاصطناعي، قد يمكن استخدامه لتحديد موقع كل قاذفات العدو النووية. ومع هذه القدرة يمكن للمعتدي الهجوم دون خوف من الانتقام النووي، وحتى التصور بأن منصات الإطلاق النووية ستكون عرضة للخطر بهذه الطريقة قد يُشجع الدولة على القيام بضربة أولى لاستباق احتمال فقدان القدرة على استخدام الأسلحة النووية في وقت لاحق. ومثل هذا السيناريو يمكن أن يكون مزعزعًا للغاية للاستقرار، ويعرّض العالم بأسره لخطر كارثة نووية.
خلاصة القول، يبدو أن العالم مقبل على فترة قادمة يصعب فيها التكهن بمجريات الأحداث المستقبلية، ولا سيما في ظل فوضوية النظام الدولي الحالي القائم على تعدد القوى العظمى، رغم أنه في طور التشكل، وسعي كل منها إلى تطوير قدراتها العسكرية تحسبًا للنوايا العدائية من الطرف الدولي الآخر، مما أدخل النظام الدولي في حالة من سباق التسلح على الأنظمة العسكرية المتطورة.
وفيما يخصّ منطقة الشرق الأوسط، فقد أوضحت النزاعات الأهلية والخلافات الإقليمية بها، ولا سيما بين إيران وإسرائيل، أن الأسلحة المتطورة تكنولوجيًا قد شكّلت أدوات السلاح بينهما وغيرت من ساحة المعركة من الأرض إلى الواقع الافتراضي، حيث تمكنت إسرائيل من الهجوم سيبرانيًا من خلال فيروس ستاكسنت على مواقع المنشآت النووية الإيرانية، كما نجحت في اغتيال رئيس البرنامج النووي فخري زاده عبر رشاش روبوتي يتم التحكم به عن بعد. في المقابل، نجحت إيران في تشكيل هجمات سيبرانية على مواقع إسرائيلية، إلا أنها لم تكن بنفس حجم الخسارة والفعالية الإسرائيلية.
الهوامش:
- Artificial Intelligence and National Security, Congressional Research Service (CRS), 2020, available on https://crsreports.congress.gov/product/pdf/R/R45178/10
- Advanced military technology in Russia, Chatham House, 2021, available on https://www.chathamhouse.org/2021/09/advanced-military-technology-russia/06-military-applications-artificial-intelligence
- Bundeswehr, Artificial Intelligence in Land Forces: A position paper developed by the German Army Concepts and Capabilities Development Centre. Army Concepts and Capabilities Development Centre, (2019) Available on: https://www.bundeswehr.de/resourse/blob/156026/3f03afe6a20c35d07b0ff56aa8d04878/download-positionpapier-englische-version-data.pdf.
- Cummings, M. L, Artificial Intelligence and the Future of Warfare. Chatham House, The Royal Institute of International Affairs, January(2017. Available on: https://www.chathamhouse.org/sites/default/files/publications/research/2017-01-26-artificial-intelligence-future-warfare-cummings-final.pdf
- David E. Sanger, The Perfect Weapon: War, Sabotage, and Fear in the Cyber Age, crown Publishing Group, USA,2018, available on https://www.academia.edu/40629003/The_Perfect_Weapon_War_Sabotage_and_Fear_in_the_Cyber_Age
- Forrest E. Morgan, Military application of Artificial Intelligence, RAND Corporation, available on https://www.rand.org/pubs/research_reports/RR3139-1.html
- Slaughterbots, Stop Autonomous Weapons, video published on YouTube, 2017, available on https://www.youtube.com/watch?v=9CO6M2HsoIA
- Anderson, K., Reisner, D. and Waxman, M. (2014). Adapting the Law of Armed Conflict to Autonomous Weapon Systems. International Legal Studies vol. 90, issue 1. Available at: https://digital-commons.usnwc.edu/ils/vol90/iss1/3/.
- China Arms Control and Disarmament Association, Artificial Intelligence and Its Military Implications. In: The Militarization of Artificial Intelligence, United Nations, New York, NY. 2019. Available on: https://www.un.org/disarmament/the-militarization-of-artificial-intelligence/.
- Intelligence and National Security Congressional Research Service. Congressional Research Service, November, 2020. Available at: https://fas.org/sgp/crs/natsec/R45178.pdf.
.
رابط المصدر: