الحرب والسلام في عصر الذكاء الاصطناعي ( مراجعة نقدية )

من إعادة ضبط الاستراتيجيات العسكرية إلى إعادة صياغة الدبلوماسية، سيصبح الذكاء الاصطناعي عاملاً رئيسياً في تحديد النظام العالمي. بفضل مناعته ضد الخوف والمحاباة، إذ يقدم الذكاء الاصطناعي إمكانية جديدة لاتخاذ القرارات الإستراتيجية بموضوعية. ومع ذلك، فإن هذه الموضوعية، التي يمكن أن يستفيد منها المحارب وصانع السلام على حد سواء، يجب أن تظل حريصة على الحفاظ على الذاتية الإنسانية، التي تُعد جوهرية لممارسة القوة بمسؤولية. وفي الحروب، سيكشف الذكاء الاصطناعي عن أفضل وأسوأ ما في الإنسانية، وسيكون وسيلة لخوض الحروب، وإنهائها في الوقت ذاته.

الصراع الطويل الذي خاضته البشرية لتنظيم نفسها في ترتيبات أكثر تعقيداً، بهدف منع أي دولة من تحقيق سيطرة مطلقة على الآخرين، بات بمثابة قانون طبيعي مستمر وغير منقطع. وفي عالم يظل فيه اللاعبون الرئيسيون بشراً – حتى وإن كانوا مزودين بالذكاء الاصطناعي للإرشاد والمشورة – يُفترض أن تظل الدول تتمتع بدرجة من الاستقرار استناداً إلى أعراف مشتركة للسلوك، تخضع للتكيف مع مرور الزمن.

ولكن إذا ظهر الذكاء الاصطناعي ككيانات سياسية ودبلوماسية وعسكرية مستقلة عملياً، فإن ذلك سيجبر العالم على التخلي عن ميزان القوى التقليدي لصالح خلل جديد وغير مسبوق. فقد تمكّن النظام الدولي للدول القومية – وهو توازن هش ومتحول تحقق على مدى القرون الأخيرة – جزئياً بسبب المساواة المتأصلة بين اللاعبين. وأما عالم شديد التفاوت – على سبيل المثال، إذا اعتمدت بعض الدول الذكاء الاصطناعي على أعلى مستوى بشكل أسرع من غيرها – فسيكون أقل قابلية للتنبؤ.

وفي حالات يواجه فيها البشر عسكرياً أو دبلوماسياً دولة مدعومة بقوة بالذكاء الاصطناعي، أو حتى الذكاء الاصطناعي نفسه، قد يجد البشر أنفسهم عاجزين عن البقاء، ناهيك عن التنافس. وقد يشهد هذا النظام الوسيط انهياراً داخلياً للمجتمعات وانفجاراً غير قابل للسيطرة للنزاعات الخارجية.

خيارات لا تنتهي

إلى جانب السعي نحو الأمن، لطالما خاض البشر الحروب سعياً للانتصار أو دفاعاً عن الشرف. الآلات، على الأقل في الوقت الحالي، تفتقر إلى أي فهم لهذه المفاهيم كالانتصار أو الشرف. قد تختار الآلات عدم الذهاب إلى الحرب على الإطلاق، مفضلةً إجراء تقسيم فوري ودقيق للأراضي بناءً على حسابات معقدة. أو قد تقوم – بتركيزها على النتائج وتقليل أولوية الحياة الفردية – باتخاذ إجراءات تؤدي إلى حروب دموية تُهلك البشر. في أحد السيناريوهات، قد تخرج البشرية من هذا التحول وقد تجنبت تماماً قسوة السلوك الإنساني. وفي سيناريو آخر، قد تجد نفسها خاضعة بشكل كامل لهذه التكنولوجيا، مما يعيدها إلى ماضٍ وحشي.

معضلة الأمن في الذكاء الاصطناعي

تسعى العديد من الدول بشكل محموم إلى “الفوز بسباق الذكاء الاصطناعي”. جزئياً، يمكن تفهّم هذا الدافع. فقد تضافرت الثقافة والتاريخ والتواصل والإدراك لخلق وضع دبلوماسي بين القوى الكبرى اليوم يعزز الشعور بعدم الأمان والريبة من جميع الأطراف. يعتقد القادة أن أي ميزة تكتيكية طفيفة قد تكون حاسمة في صراعات المستقبل، وأن الذكاء الاصطناعي يمكن أن يوفر تلك الميزة.

إذا رغبت كل دولة في تعزيز موقعها إلى أقصى حد، فستكون الظروف مهيأة لمنافسة نفسية بين القوى العسكرية وأجهزة الاستخبارات، منافسة لم يشهدها البشر من قبل. يلوح في الأفق معضلة أمنية وجودية. فالرغبة الأولى المنطقية لأي جهة تمتلك ذكاءً اصطناعيًا خارقًا—أي ذكاء اصطناعي أكثر ذكاءً من البشر—قد تكون محاولة ضمان أن لا يحصل أحد آخر على هذا الإصدار القوي من التكنولوجيا. وقد يفترض أي طرف يمتلك هذا الذكاء، بشكل معقول، أن خصمه، وهو يعاني من نفس الشكوك ويواجه نفس المخاطر، يفكر في نفس الخطوة.

ما قبل الحرب: أدوات الذكاء الاصطناعي في الصراع

قد يستخدم الذكاء الاصطناعي، بدلاً من إشعال الحروب، أدواته لتخريب البرامج المنافسة وعرقلتها. على سبيل المثال، يمكن أن يعزز الذكاء الاصطناعي الفيروسات الحاسوبية التقليدية بقوة غير مسبوقة ويخفيها بإتقان. كما هو الحال مع فيروس “ستاكسنت” الذي كشف عنه في عام 2010 والذي يُعتقد أنه عطّل خمس أجهزة الطرد المركزي الإيرانية لليورانيوم، يمكن لوكلاء الذكاء الاصطناعي تخريب تقدم المنافس بطرق تجعل من الصعب اكتشاف وجودهم، مما يجبر العلماء على مطاردة أشباح.

بفضل قدرته الفريدة على استغلال نقاط الضعف في النفس البشرية، قد يستخدم الذكاء الاصطناعي وسائل الإعلام في الدولة المنافسة لإطلاق موجة من التضليل الاصطناعي المحكم، مما يثير معارضة جماهيرية واسعة النطاق ضد تقدم تلك الدولة في مجال الذكاء الاصطناعي.

السباق السري: إلى أين يتجه الذكاء الاصطناعي؟

سيكون من الصعب على الدول أن تُحدد موقعها بالنسبة لغيرها في سباق الذكاء الاصطناعي. وبالفعل، يتم تدريب أكبر نماذج الذكاء الاصطناعي على شبكات آمنة مفصولة عن الإنترنت. حيث يعتقد بعض المديرين التنفيذيين أن تطوير الذكاء الاصطناعي سينتقل في النهاية إلى منشآت محصنة لا يمكن اختراقها، تعمل فيها الحواسيب العملاقة بالطاقة النووية. وتُبنى الآن مراكز بيانات في قاع المحيط، وقريباً قد تُعزل في مدارات حول الأرض.

وربما ستتوقف الشركات أو الدول عن نشر أبحاث الذكاء الاصطناعي لتجنب تمكين الفاعلين الخبيثين، وأيضاً لإخفاء وتيرة تقدمها. ولتشويه الصورة الحقيقية لتقدمها، قد تلجأ بعض الجهات إلى نشر أبحاث مضللة عمداً، باستخدام الذكاء الاصطناعي لصياغة تزويرات مقنعة.

هناك سابقة لهذا النوع من التحايل العلمي

في عام 1942، اِستنتج الفيزيائي السوفييتي جورجي فليروف بشكل صحيح أن الولايات المتحدة تعمل على بناء قنبلة نووية بعد أن لاحظ أن العلماء الأمريكيين والبريطانيين توقفوا فجأة عن نشر أبحاث علمية حول الانشطار الذري. واليوم، سيصبح مثل هذا السباق أكثر غموضًا وصعوبة في التنبؤ، نظرًا لتعقيد وغموض قياس التقدم نحو مفهوم مجرد كـ”الذكاء”. وفي حين يرى البعض أن الميزة ترتبط بحجم نماذج الذكاء الاصطناعي، فإن النموذج الأكبر ليس بالضرورة متفوقًا في جميع السياقات، وقد لا يتفوق دائمًا على نماذج أصغر تُنشر على نطاق واسع. والنماذج الصغيرة والمتخصصة قد تعمل مثل أسراب الطائرات بدون طيار ضد حاملة طائرات – غير قادرة على تدميرها، لكنها كافية لتحييدها.

وقد يُنظر إلى طرف ما على أنه يتمتع بميزة شاملة إذا أظهر إنجازًا في قدرة معينة. لكن المشكلة في هذا التفكير هي أن الذكاء الاصطناعي يشير ببساطة إلى عملية تعلم آلي تُدمج ليس فقط في تقنية واحدة ولكن في طيف واسع من التقنيات. وبالتالي، قد تكون القدرة في مجال معين مدفوعة بعوامل مختلفة تمامًا عن تلك المطلوبة للقدرة في مجال آخر. وفي هذا السياق، قد تكون أي “ميزة” محسوبة بالطرق التقليدية مجرد وهم.

تقدم غير متوقع وغير خطي

علاوة على ذلك، كما أظهرت الانفجارات غير المتوقعة في قدرات الذكاء الاصطناعي في السنوات الأخيرة، فإن مسار التقدم ليس خطيًا، ولا يمكن التنبؤ به. وحتى لو قيل إن طرفًا ما “يتقدم” على آخر بعدد تقريبي من السنوات أو الأشهر، فإن اِختراقًا تقنيًا أو نظريًا مفاجئًا في مجال حيوي في لحظة حاسمة يمكن أن يقلب موازين القوى بين جميع الأطراف.

عالم من عدم الثقة والشكوك المتبادلة

في مثل هذا العالم، حيث لا يمكن لأي قائد أن يثق في معلوماته الاِستخباراتية الأكثر صلابة، أو غرائزه الأساسية، أو حتى في أسس الواقع نفسه، لا يمكن لوم الحكومات إذا تصرفت من منطلق أقصى درجات الارتياب والشك. ومن المؤكد أن القادة يتخذون قرارات بالفعل على افتراض أن جهودهم خاضعة للمراقبة أو تتعرض للتحريف بفعل تأثيرات خبيثة. وبالاعتماد على أسوأ السيناريوهات، فإن الحسابات الإستراتيجية لأي طرف في الطليعة ستكون إعطاء الأولوية للسرعة والسرية على حساب السلامة. قد يجد القادة البشر أنفسهم أسرى الخوف من أنه لا وجود لمفهوم “المركز الثاني”. وتحت هذا الضغط، قد يسرّعون بشكل مفرط في نشر الذكاء الاصطناعي كوسيلة للردع ضد التهديدات الخارجية.

نموذج جديد للحرب

على مدار معظم تاريخ البشرية، كانت الحروب تُخاض في نطاق محدد يمكن فيه معرفة قدرات ومواقع القوات المعادية بدرجة معقولة من اليقين. وهذا المزيج من المعطيات وفّر لكل طرف إحساسًا بالأمان النفسي، وإجماعًا مشتركًا، مما سمح بضبط مسبق لمستوى القتل والتدمير. وفقط عندما يتحد القادة المستنيرون بفهم أساسي حول كيفية خوض الحرب يمكن للقوات المتعارضة أن تقرر ما إذا كانت الحرب ينبغي أن تُخاض من الأساس.

السرعة والتنقل كأسس للتفوق العسكري

لطالما كانت السرعة والتنقل من أكثر العوامل المؤثرة وضوحًا في فعالية أي قطعة من المعدات العسكرية. من الأمثلة المبكرة على ذلك تطوير المدافع. فعلى مدار ألف عام، كانت “أسوار ثيودوسيوس” تحمي مدينة القسطنطينية العظيمة من الغزاة الخارجيين. ولكن في عام 1452، اقترح مهندس مدفعية مجري على الإمبراطور قسطنطين الحادي عشر بناء مدفع ضخم يمكنه، من خلف الأسوار الدفاعية، سحق المهاجمين. ولكن الإمبراطور، المتهاون وغير القادر ماديًا أو متبصرًا بما يكفي لإدراك أهمية التكنولوجيا، رفض العرض.

ولسوء حظ الإمبراطور، كان المهندس المجري مرتزقًا. فقد غيّر استراتيجيته (وانتقل إلى الطرف الآخر)، حيث قام بتحديث تصميمه ليصبح أكثر قابلية للتنقل – يمكن نقله بمساعدة 60 ثورًا و400 رجل – وتوجّه إلى خصم الإمبراطور، وهو السلطان العثماني محمد الثاني، الذي كان يستعد لحصار القلعة التي لطالما اعتُبرت منيعة. وبفوزه باهتمام السلطان الشاب من خلال زعمه أن هذا المدفع قادر على “تحطيم أسوار بابل نفسها”، ساعد المهندس المجري القوات العثمانية على اختراق الأسوار القديمة في غضون 55 يومًا فقط.

تكرار الدروس عبر التاريخ

يمكن رؤية أبعاد هذا الصراع في القرن الخامس عشر تتكرر مرارًا وتكرارًا عبر التاريخ. وفي القرن التاسع عشر، غيّرت السرعة والتنقل حظوظ كل من فرنسا، عندما اجتاحت جيوش نابليون أوروبا، ومن ثم بروسيا، بقيادة هيلموت فون مولتكه (الأكبر) وألبرشت فون رون، اللذين اِستغلا السكك الحديدية الحديثة لتمكين المناورة العسكرية بسرعة، ومرونة أكبر. وبالمثل، استُخدمت إستراتيجية الحرب الخاطفة (Blitzkrieg)، وهي تطور للمبادئ العسكرية الألمانية ذاتها، ضد قوات الحلفاء في الحرب العالمية الثانية، لتترك آثارًا مدمرة وكبيرة.

الحرب الخاطفة” في عصر الحروب الرقمية

أخذت عبارة “الحرب الخاطفة” معنى جديدًا وانتشارًا واسعًا في عصر الحروب الرقمية. حيث أصبحت السرعات لحظية، ولم يعد على المهاجمين التضحية بفتك الهجمات للحفاظ على التنقل، وكذلك لم تعد الجغرافيا تشكل عائقًا. وعلى الرغم من أن هذا الجمع بين السرعة والفتك قد منح الهجوم ميزة كبيرة في الهجمات الرقمية، إلا أن عصر الذكاء الاصطناعي قد يشهد تسريع وتيرة الاستجابة، مما يسمح للدفاعات السيبرانية بمضاهاة الهجمات السيبرانية.

الذكاء الاصطناعي: قفزة نوعية في الحروب التقليدية

في الحروب الحركية، سيُحدث الذكاء الاصطناعي قفزة نوعية جديدة. فعلى سبيل المثال، ستكون الطائرات المسيّرة (الدرون) سريعة للغاية، وقابلة للتنقل، بطريقة لا يمكن تصورها. وعندما يُستخدم الذكاء الاصطناعي ليس فقط لتوجيه طائرة واحدة، ولكن لإدارة أسراب كاملة منها، ستتحول هذه الأسراب إلى تشكيلات متزامنة تعمل كوحدة جماعية واحدة متكاملة ومتناسقة تمامًا.

وستكون أسراب الدرون المستقبلية قادرة على التفكك، وإعادة التشكيل بسهولة لتكوين وحدات بأي حجم، وتمامًا كما تُصمم قوات العمليات الخاصة من فرق مرنة قابلة للتوسيع، كل منها قادرة على اتخاذ قرارات مستقلة، وقيادة ذاتية.

دفاعات سريعة ومرنة ممكّنة بالذكاء الاصطناعي

على صعيد الدفاع، سيوفر الذكاء الاصطناعي حلولاً بنفس القدر من السرعة والمرونة. أسراب الطائرات المسيّرة غير عملية أو حتى مستحيلة الإيقاف باستخدام المقذوفات التقليدية. ولكن، باستخدام أسلحة مدعومة بالذكاء الاصطناعي تطلق فوتونات وإلكترونات بدلاً من الذخيرة التقليدية، يمكن تحقيق تأثيرات تعطيل مميتة تشبه العواصف الشمسية التي تدمر الدوائر الإلكترونية للأقمار الصناعية المكشوفة.

أسلحة دقيقة للغاية ومحدودة بالمخيلة الإنسانية

ستتميز الأسلحة الممكّنة بالذكاء الاصطناعي بدقة غير مسبوقة. ولطالما كانت قيود معرفة جغرافيا العدو تشكل عائقًا أمام قدرات ونوايا أي طرف متحارب. ومع ذلك، أدى التحالف بين العلم والحرب إلى زيادة الدقة في الأدوات العسكرية، ومن المتوقع أن يحقق الذكاء الاصطناعي اختراقات إضافية في هذا المجال.

وسيعمل الذكاء الاصطناعي على تقليص الفجوة بين النية الأصلية والنتيجة النهائية، بما في ذلك في استخدام القوة الفتاكة. وسواء كانت أسراب درون برية، أو تشكيلات آلية منتشرة في البحر، أو ربما أساطيل بين النجوم، ستتمكن الآلات من قتل البشر بدقة كبيرة، وبآثار لا حدود لها.

قيود الفتك: الإرادة الإنسانية والآلة

ستعتمد حدود الدمار المحتمل على الإرادة وضبط النفس، سواء من البشر أو من الآلات. والذكاء الاصطناعي لن يكون مجرد أداة، بل شريكًا في تشكيل مستقبل الحرب والسلام، بقوة لا يمكن الاستهانة بها.

عصر الحروب بالذكاء الاصطناعي: تحول في الاستراتيجيات والمفاهيم

مع دخول الذكاء الاصطناعي عالم الحروب، ستتركز الديناميكيات الأساسية للصراعات ليس على تقييم قدرات العدو بقدر ما على تقييم نواياهـ وكيفية تطبيقها إستراتيجيًا. ولقد شهدنا بالفعل مثل هذا التحول في عصر الأسلحة النووية، ولكن مع الذكاء الاصطناعي، ستصبح هذه الديناميكيات أكثر وضوحًا وأهمية مع إثبات الذكاء الاصطناعي جدواه كسلاح حرب.

أهداف غير بشرية في الحروب الممكّنة بالذكاء الاصطناعي

مع استخدام تكنولوجيا ذات قيمة هائلة كهذه، قد لا يكون البشر هم الهدف الأساسي للحروب التي يُمكّنها الذكاء الاصطناعي. بل قد يُخرج الذكاء الاصطناعي البشر تمامًا من كونهما وكلاء في الحرب، مما يجعل الحرب أقل فتكًا لكنها لا تزال حاسمة. على غرار ذلك، يبدو أن مجرد السيطرة على الأرض لن تكون دافعًا للحروب الممكّنة بالذكاء الاصطناعي، في حين أن مراكز البيانات والبنى التحتية الرقمية الحرجة قد تصبح أهدافًا رئيسية.

الاِستسلام في الحروب المستقبلية

في هذا السياق الجديد، قد لا يأتي الاستسلام عندما تُستنزف قوات العدو أو تنفد أسلحته، بل عندما تصبح الدرع التكنولوجي للناجين، أيّ بنيتهم الرقمية، عاجزة عن حماية أصولهم التكنولوجية، وأخيرًا وكلائهم من البشر. وقد تتطور الحرب إلى لعبة من الخسائر الميكانيكية البحتة، حيث يكون العامل الحاسم هو القوة النفسية للإنسان (أو الذكاء الاصطناعي) الذي يتعين عليه المخاطرة بكل شيء لمنع لحظة اِختراق تؤدي إلى دمار شامل.

مفاهيم جديدة للحرب والدوافع

المفاهيم التي تحكم ساحة المعركة الجديدة قد تبدو غريبة تمامًا عن الماضي. فالكاتب الإنجليزي ج. ك. تشيسترتون قال ذات مرة: “المحارب الحقيقي لا يقاتل لأنه يكره ما أمامه، بل لأنه يحب ما وراءه”، ولكن في حرب الذكاء الاصطناعي، من المستبعد أن تلعب مفاهيم الحب أو الكراهية أو حتى الشجاعة العسكرية أي دوراً. ومع ذلك، قد تظل هناك عوامل أخرى مثل الأنا، والهوية، والولاء، ولكن طبيعة تلك الهوية والولاءات قد تختلف تمامًا عن يومنا هذا.

غياب الإدراك البشري وحدود الصراع

لطالما كانت معادلة الحروب بسيطة نسبيًا؛ الطرف الذي يتحمل ألم المعركة بدرجة أقل هو الذي يُهزم غالبًا. ولكن الإدراك الواعي للقصور الذاتي كان في الماضي يدفع إلى ضبط النفس. ومع غياب هذا الإدراك لدى الذكاء الاصطناعي، وامتلاكه تسامحًا عاليًا تجاه الألم، يُطرح السؤال: ما الذي يمكن أن يحفز الذكاء الاصطناعي على ضبط النفس، وكيف ستنتهي الحروب التي يخوضها؟ مثل آلة ذكاء اصطناعي تلعب الشطرنج دون أن تُعلَّم قواعد إنهاء اللعبة، قد تستمر باللعب حتى القطعة الأخيرة.

إعادة هيكلة النظام الجيوسياسي

في كل عصر من عصور البشرية، وكأنه طاعة لقانون طبيعي، ظهرت وحدة تمتلك القوة والإرادة والاندفاع الفكري والأخلاقي لتشكيل النظام الدولي بأسره وفق قيمها. في العصر الحديث، يتمثل هذا النظام في الدولة القومية ذات السيادة، التي ظهرت من معاهدات سلام ويستفاليا في منتصف القرن السابع عشر. ومع ذلك، فإن فكرة الدولة القومية ليست وحدة مسبقة التحديد للتنظيم الاجتماعي، وقد لا تكون مناسبة لعصر الذكاء الاصطناعي.

تهديد للدول القومية

مع الانتشار الواسع للمعلومات المضللة، والتمييز التلقائي الذي يفقد الثقة في النظام الحالي، قد يمثل الذكاء الاصطناعي تحديًا جوهريًا لسلطة الحكومات الوطنية. وبدلاً من ذلك، قد يُعيد الذكاء الاصطناعي ترتيب المراكز النسبية للمنافسين داخل النظام الحالي. وإذا استغلت الدول القومية قوى الذكاء الاصطناعي بشكل رئيسي، فقد يدفع ذلك البشرية نحو حالة من الجمود المهيمن، أو نحو توازن جديد بين الدول القومية المُمكّنة بالذكاء الاصطناعي.

نظام جديد كليًا

قد يكون الذكاء الاصطناعي أيضًا الحافز لانتقال أكثر جوهرية، وتحول إلى نظام جديد تمامًا، حيث تُجبر الحكومات على التخلي عن دورها المركزي في البنية السياسية العالمية. وبهذا، قد يشهد العالم تطورًا تاريخيًا غير مسبوق في التنظيم السياسي والاجتماعي، بحيث يُعيد تشكيل العلاقة بين الدول والذكاء الاصطناعي بطريقة قد تغير ملامح السلطة إلى الأبد.

هيمنة الشركات: اِحتمالية مستقبلية

من الاحتمالات البارزة أن الشركات التي تمتلك وتطوّر الذكاء الاصطناعي قد تصبح القوة المهيمنة في المجتمع والاقتصاد والسياسة والعسكرية. إذ تواجه الحكومات اليوم تحديًا مزدوجًا؛ فهي من جهة داعمة للشركات الخاصة، وتوفر لها الدعم العسكري، ورأس المال الدبلوماسي، والثقل الاقتصادي لتعزيز هذه الشركات المحلية، ومن جهة أخرى، مطالبة بحماية المواطن العادي الذي يتوجس من طمع الشركات الاحتكارية وغموضها. وهذا التناقض قد يصبح مع الوقت غير قابل للاستمرار.

تحالفات الشركات الكبرى

في الوقت ذاته، قد تسعى الشركات إلى تشكيل تحالفات لتعزيز قوتها الكبيرة بالفعل. يمكن أن تُبنى هذه التحالفات على مزايا متكاملة تحقق أرباحًا عبر دمج الموارد والقدرات، أو على فلسفة مشتركة تتعلق بتطوير ونشر أنظمة الذكاء الاصطناعي. وقد تتبنى هذه التحالفات وظائف الدول القومية التقليدية، لكن بدلًا من السعي لتعريف وتوسيع الحدود الجغرافية، قد تركّز على بناء شبكات رقمية مترامية الأطراف لتكون مجال نفوذها.

التكنولوجيا كمجال نفوذ جديد

بدلًا من النزاعات التقليدية حول الأراضي والموارد، قد يصبح النفوذ في المستقبل مرتبطًا بالسيطرة على البيانات، والبنية التحتية الرقمية، وأنظمة الذكاء الاصطناعي. ستعيد هذه التحالفات تشكيل مفهوم السيادة والسلطة، حيث يمكن أن تتجاوز الشركات الحدود التقليدية للدول لتبني قوى عالمية رقمية، تحدد مستقبل الاقتصاد والسياسة والحرب بطرق جديدة وغير مسبوقة.

الأمل في الذكاء الاصطناعي؛ التوفيق بين المصالح البشرية وحلّ الأزمات

نأمل أن يساهم الذكاء الاصطناعي، عند استخدامه لأغراض سياسية داخلية أو خارجية، بأكثر من مجرد توضيح الموازنات بين المصالح. في أفضل السيناريوهات، قد يوفر حلولًا جديدة مثالية على المستوى العالمي، بفضل قدرته على النظر إلى الأفق الزمني البعيد بدقة أكبر من البشر. بهذه الطريقة، يمكن أن يساعد الذكاء الاصطناعي في تحقيق توافق بين المصالح البشرية المتنافسة، بل وقد يتجاوز المعضلات التقليدية في إدارة الصراعات وصنع السلام.

أزمة الثقة: بين الغرور الإنساني واِنعدام الثقة بالنفس

لكن إذا نجح الذكاء الاصطناعي بالفعل في حل المشكلات التي كان يُفترض أن يحلها البشر بأنفسهم، فقد نواجه أزمة ثقة مزدوجة. فمن جهة، قد يؤدي إدراكنا لحدود قدرتنا على التصحيح الذاتي إلى صعوبة الاعتراف بأننا سلمنا الآلات سلطة أكبر من اللازم في قضايا تمس جوهر السلوك الإنساني. ومن جهة أخرى، قد يكشف نجاح الذكاء الاصطناعي عن عيوب جوهرية في الطبيعة البشرية، مما يؤدي إلى تساؤلات مؤلمة حول قصورنا. وإذا كان السلام دائمًا خيارًا بسيطًا متاحًا، فإن ثمن نقص الكمال البشري قد دُفع عبر قرون من الحروب المتواصلة. وإن معرفة أن الحل كان موجودًا دائمًا لكننا لم نفكر فيه قد تُسبب جرحًا عميقًا لكبرياء البشر.

قبول الآلة كوسيط محايد

في مجال الأمن، بخلاف المجالات الأكاديمية أو العلمية التي شهدت مزاحمة بين البشر والآلات، قد يكون من الأسهل قبول حيادية طرف ثالث ميكانيكي باعتبارها متفوقة على التحيز البشري. ومثلما يقبل البشر بسهولة الحاجة إلى وسيط في حالات الطلاق الشائك، قد نجد أنفسنا أكثر استعدادًا لتسليم مسؤولية حل الأزمات الأمنية إلى الذكاء الاصطناعي.

وقد تكون أسوأ صفاتنا، مثل نزعتنا المفرطة إلى تحقيق مصالحنا الذاتية حتى على حساب الآخرين، هي التي تدفعنا لقبول تفوق الذكاء الاصطناعي وتجاوزه هذه الأنانية. بمعنى آخر، قد تُظهر عيوبنا البشرية أفضل ما فينا، من خلال استعدادنا للاعتماد على التكنولوجيا لتجاوز تلك العيوب.

تعليق نقدي على المقالة: الأمل والمخاطر في عصر الذكاء الاصطناعي

من خلال ما تقدم لاحظنا أن المقالة ناقشت دور الذكاء الاصطناعي في تشكيل مستقبل الحروب والسياسة، مما يطرح أسئلة حيوية حول تأثير هذه التكنولوجيا على الإنسانية. ورغم أن المقالة تسلط الضوء على الفرص الهائلة التي يوفرها الذكاء الاصطناعي، إلا أنها تتجاهل بعض الجوانب الحرجة التي قد تقود إلى تداعيات كارثية، مما يستوجب نظرة نقدية شاملة.

  1. مثالية الحلول مقابل مخاطر التحكم

المقالة تشير إلى أن الذكاء الاصطناعي قد يقدم حلولًا “مثالية” لمشكلات الحروب والسياسة، لكنها تتجاهل أن هذه “المثالية” تعتمد على من يملك ويسيطر على التكنولوجيا. وعلى سبيل المثال، إذا احتكرت قوى كبرى مثل الولايات المتحدة الأمريكية أو الصين تقنيات الذكاء الاصطناعي، فقد يؤدي ذلك إلى تعزيز الهيمنة الجيوسياسية بدلاً من تحقيق التوازن العالمي. وإن تقرير مجلس العلاقات الخارجية الأمريكي لعام 2023، يُظهر أن التفاوت في قدرات الذكاء الاصطناعي بين الدول قد يفاقم الصراعات بدلًا من حلها.

  1. الاستغناء عن البشر: تحديات أخلاقية

تتناول المقالة خطر فقدان البشر لدورهم كوسطاء في الحروب، لكن هذا الاستبعاد يثير تساؤلات أخلاقية حول مسؤولية القرارات القاتلة. على سبيل المثال، استخدام الطائرات المسيّرة الموجهة بالذكاء الاصطناعي في مناطق النزاع مثل اليمن أدى إلى خسائر بشرية ضخمة دون مساءلة مباشرة، كما أشار تقرير لمنظمة العفو الدولية (2021).

  1. أزمة الثقة الإنسانية

ناقشت المقالة “أزمة الثقة” في الاعتماد على الذكاء الاصطناعي، ولكنها قللت من خطر التحول إلى اِعتماد مفرط على التكنولوجيا. وتُظهر لنا تجربة شركة “Cambridge Analytica” عام 2018 كيف يمكن للتكنولوجيا أن تُستخدم للتلاعب في العمليات الديمقراطية، مما يعزز الشكوك تجاه الحلول التكنولوجية.

وفي كتاب “Weapons of Math Destruction” يُبرز كيف يمكن للاعتماد المفرط على الخوارزميات أن يؤدي إلى قرارات غير شفافة، وتفاقم الفجوة بين الفقراء والأغنياء. وبالتالي يجب على البشر أن يُحافظوا على دورهم في اتخاذ القرارات المصيرية لضمان عدم تحول الذكاء الاصطناعي إلى أداة غير خاضعة للمساءلة.

  1. تغافل البُعد الثقافي

تغفل المقالة دور الثقافات المختلفة في تفسير وتطبيق الذكاء الاصطناعي. وعلى سبيل المثال، تُظهر الدراسات أن الدول الغربية تميل إلى استخدام التكنولوجيا لتعزيز الفاعلية الاقتصادية، بينما تركز الدول الآسيوية على التطبيقات الجماعية. وتجاهل هذا البُعد يجعل الحلول “العالمية” للذكاء الاصطناعي بعيدة عن الواقعية.

  1. غياب التصورات المستقبلية الحقيقية

فيما تتحدث المقالة عن إعادة تشكيل النظام الجيوسياسي، تغفل عن ذكر كيفية تجنب الانحرافات الناجمة عن الذكاء الاصطناعي. وكتاب “Weapons of Math Destruction” لكاثي أونيل يوضح أن الخوارزميات يمكن أن تؤدي إلى استدامة الأنظمة غير العادلة إذا لم تُراقب بعناية.

  1. القوة المتزايدة للشركات وتأثيرها الجيوسياسي

تناولت المقالة اِحتمالية صعود الشركات الكبرى كمراكز قوى جديدة، متجاوزةً الدول القومية. وهذا التوقع يتماشى مع التحولات الراهنة، حيث تتصدر شركات التكنولوجيا مثل Google وAmazon وMicrosoft المشهد العالمي بفضل استثماراتها في الذكاء الاصطناعي. ومثال على ذلك تقرير مجلس العلاقات الخارجية (2023)، الذي أشار إلى أن الشركات التكنولوجية الكبرى بدأت بالفعل تؤثر على سياسات الدول من خلال احتكار تقنيات الذكاء الاصطناعي والبنية التحتية للبيانات.  وفضلاً عن ذلك، تطرح المقالة اِحتمال تشكيل تحالفات بين الشركات، ولكن هذه التحالفات قد تصبح أدوات اِحتكار عالمي تُعزز سيطرة القلة على موارد المعرفة والابتكار.

  1. إعادة تشكيل النظام الجيوسياسي

تتوقع المقالة أن الذكاء الاصطناعي قد يؤدي إلى تجاوز نموذج الدولة القومية التقليدي. وبالطبع فإن هذا التصور، رغم طموحه، يتجاهل التحديات السياسية والثقافية التي تواجه مثل هذا التحول.  فالنزعة الوطنية القوية، كما هو الحال في الولايات المتحدة والمملكة المتحدة، تُظهر مقاومة مستمرة لفكرة تجاوز السيادة الوطنية. وإذا لم يتم تطوير أطر قانونية عالمية تتضمن جميع الأطراف، فقد يؤدي استخدام الذكاء الاصطناعي إلى تفاقم الانقسامات الجيوسياسية بدلاً من توحيدها.

  1. الحاجة إلى تنظيم دولي شامل

تغفل المقالة أهمية وضع أطر قانونية لتنظيم استخدام الذكاء الاصطناعي في الحروب. وعلى الرغم من أن اتفاقية “الأسلحة الذاتية الفتاكة” (CCW) التابعة للأمم المتحدة تمثل بداية، إلا أنها لا تزال تفتقر إلى النفاذية القانونية اللازمة.

وفي الختام يمكن القول: تقدم المقالة نظرة متفائلة حول دور الذكاء الاصطناعي في تشكيل مستقبل البشرية، ولكنها تفتقر إلى مناقشة متوازنة لجوانب أخلاقية وقانونية واجتماعية تضمن تحقيق توازن بين الفوائد المحتملة والمخاطر الكامنة في استخدام الذكاء الصناعي.  وإن تعزيز التعاون الدولي، وزيادة الشفافية في تطوير التكنولوجيا، وخلق أنظمة مراقبة صارمة هي خطوات أساسية لضمان استخدام الذكاء الاصطناعي بطرق تعود بالنفع على البشرية جمعاء بعض النظر عن الحدود الجغرافية والسياسية.

رابط المقال الأصلي:

War and Peace in the Age of Artificial Intelligence | Foreign Affairs

[1] تعريف المؤلفين:

هنري أ. كيسنجر: شغل منصب وزير الخارجية الأمريكية من 1973 إلى 1977 ومستشار الأمن القومي الأمريكي من 1969 إلى 1975. زإريك شميدت: رئيس “مشروع الدراسات التنافسية الخاصة” والمدير التنفيذي السابق ورئيس مجلس إدارة جوجل. وكريغ موندي: الشريك المؤسس لشركة “Alliant Computing Systems” والمستشار الأول السابق للرئيس التنفيذي لشركة مايكروسوفت. و هذه المقالة مستوحاة من كتابهم:

 

المصدر

حول الكاتب

مقالات ذات صله

الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

W P L O C K E R .C O M