نيويورك ــ برغم أن الذكاء الاصطناعي كان يساعدنا بهدوء لعقود من الزمن، مع تسارع التقدم في السنوات الأخيرة، فسوف نتذكر عام 2023 باعتباره لحظة “الانفجار العظيم”. فمع ظهور الذكاء الاصطناعي التوليدي، اخترقت التكنولوجيا الوعي الشعبي وأصبحت تشكل الخطاب العام، فباتت تؤثر على الاستثمار والنشاط الاقتصادي، وتشعل شرارة المنافسة الجيوسياسية، وتغير أنماط الأنشطة البشرية كافة، من التعليم إلى الرعاية الصحية إلى الفنون. وكل أسبوع يجلب بعض التطورات الجديدة المذهلة. الواقع أن الذكاء الاصطناعي جاء ليبقى، ووتيرة التغيير تتسارع.
تتحرك عملية صنع السياسات بنفس السرعة تقريبا، مع إطلاق مبادرات ومنتديات تنظيمية جديدة تسعى إلى مواكبة اللحظة ولكن في حين أن الجهود الجارية التي تبذلها مجموعة السبع، والاتحاد الأوروبي، والولايات المتحدة مشجعة، فإن أيا منها لا يتمتع بطابع عالمي يمثل المشاعات العالمية. في الواقع، مع تطوير الذكاء الاصطناعي بقيادة حفنة من الرؤساء التنفيذيين والقوى الفاعلة في السوق في قِـلة من البلدان، كانت أصوات الأغلبية، وخاصة من الجنوب العالمي، غائبة عن مناقشات الإدارة والحوكمة.
تتطلب التحديات الفريدة التي يفرضها الذكاء الاصطناعي الاستعانة بنهج عالمي منسق في التعامل مع الحوكمة، وتتمتع مؤسسة واحدة فقط بالشرعية الشاملة اللازمة لتنظيم مثل هذه الاستجابة: الأمم المتحدة. يتعين علينا أن نُـحـسِـن التعامل مع مسألة إدارة الذكاء الاصطناعي إذا كنا راغبين في تسخير إمكاناته والتخفيف من المخاطر التي يفرضها. من هذا المنطلق، أُنـشِـئت الهيئة الاستشارية الرفيعة المستوى المعنية بالذكاء الاصطناعي التابعة للأمم المتحدة لتقديم التحليلات والتوصيات لمعالجة عجز الحوكمة العالمية. تضم الهيئة مجموعة من 38 فردا من مختلف أنحاء العالم، يمثلون مجموعة متنوعة من المناطق الجغرافية، والنوع الاجتماعي، والخلفيات التخصصية، والسِـن، وتستفيد من خبرات من الحكومات ومنظمات المجتمع المدني والقطاع الخاص والأوساط الأكاديمية.
نحن نشعر بالفخر لعملنا كلجنة تنفيذية للهيئة الاستشارية. واليوم، أصدرنا تقرير المجموعة المؤقت الذي يقترح خمسة مبادئ لترسيخ حوكمة الذكاء الاصطناعي ومعالجة تحديات مترابطة عديدة.
أولا، بما أن المخاطر تختلف باختلاف السياقات العالمية المتنوعة، فسوف يتطلب كل منها حلولا مصممة وفقا لذلك. لكن هذا يعني إدراك الكيفية التي قد تتعرض بها الحقوق والحريات للخطر بسبب تصميم واستخدام (وإساءة استخدام) الحوكمة واختيارات بعينها في التعامل معها. إن الفشل في تطبيق الذكاء الاصطناعي بشكل بنّاء ــ أو ما نطلق عليه “الاستخدامات المهدرة” ــ من الممكن أن يؤدي بلا داع إلى تفاقم المشكلات وأوجه التفاوت القائمة.
ثانيا، بما أن الذكاء الاصطناعي أداة للتنمية الاقتصادية والعلمية والاجتماعية، وبما أنه يساعد الناس بالفعل في حياتهم اليومية، فلابد أن يُـدار على النحو الذي يخدم المصلحة العامة. وهذا يعني أن نضع في الاعتبار الأهداف المرتبطة بالمساواة، والاستدامة، والرفاهة المجتمعية والفردية، فضلا عن قضايا بنيوية أعرض مثل الأسواق التنافسية والأنظمة البيئية السليمة للإبداع.
ثالثا، يجب أن تكون الأطر التنظيمية الناشئة عبر مختلف المناطق متوائمة من أجل معالجة تحديات حوكمة الذكاء الاصطناعي العالمية بفعالية. رابعا، يجب أن تسير حوكمة الذكاء الاصطناعي جنبا إلى جنب مع التدابير اللازمة لدعم الوكالة وحماية الخصوصية وأمن البيانات الشخصية. وأخيرا، ينبغي للحوكمة أن ترتكز على ميثاق الأمم المتحدة، والقانون الدولي لحقوق الإنسان، وغير ذلك من الالتزامات الدولية حيث يتوفر إجماع عالمي واسع، مثل أهداف التنمية المستدامة.
يتطلب تأكيد هذه المبادئ في سياق الذكاء الاصطناعي التغلب على بعض التحديات العنيدة. يعتمد الذكاء الاصطناعي على مقادير هائلة من القوة الحاسوبية، والبيانات، وبالطبع مواهب بشرية بعينها. ويجب أن تنظر الحوكمة العالمية في كيفية تطوير وضمان الوصول على نطاق واسع إلى هذه المجالات الثلاثة. يتعين عليها أيضا أن ترعى أيضا جهود بناء القدرات اللازمة للبنية الأساسية التي يقوم عليها النظام البيئي الذي يحتوي الذكاء الاصطناعي ــ مثل الإمداد الذي يمكن التعويل عليه من إنترنت النطاق العريض والكهرباء ــ وخاصة في الجنوب العالمي.
نحتاج أيضا إلى بذل جهود أكبر في مواجهة المخاطر المعروفة والتي لا تزال غير معروفة والتي قد تنشأ عن تطوير الذكاء الاصطناعي أو نشره أو استخدامه. الواقع أن مخاطر الذكاء الاصطناعي موضوع تتناوله مناقشات محتدمة. وبينما تركز بعض هذه المناقشات على سيناريوهات نهاية البشرية في نهاية المطاف، تنشغل أخرى بالأضرار التي قد تلحق بالناس هنا والآن؛ ولكن لا يوجد خلاف يذكر على أن المخاطر التي يفرضها الذكاء الاصطناعي المنفلت غير مقبولة.
يرتكز الحكم الرشيد على الأدلة الدامغة. ونحن نتوقع الحاجة إلى تقييمات موضوعية لحالة الذكاء الاصطناعي ومساره، لإعطاء المواطنين والحكومات الأساس السليم للسياسة والتنظيم. في الوقت ذاته، من الواضح أن إنشاء مرصد تحليلي لتقييم التأثير المجتمعي الذي يخلفه الذكاء الاصطناعي ــ من إزاحة الوظائف إلى تهديدات الأمن الوطني ــ من شأنه أن يساعد صناع السياسات على مواكبة التغيرات الهائلة التي يقودها الذكاء الاصطناعي خارج نطاق الإنترنت. يتعين على المجتمع الدولي أن يعمل على تطوير القدرة على مراقبة نفسه، بما في ذلك من خلال مراقبة الحوادث التي قد تؤدي إلى زعزعة الاستقرار والاستجابة لها (كما تفعل البنوك المركزية الكبرى في مواجهة الأزمات المالية)، وعن طريق تسهيل المساءلة وحتى إجراءات الإنفاذ.
هذه مجرد أمثلة قليلة من التوصيات التي نحث على تنفيذها. ويجب أن يُـنـظَـر إليها على أنها الأرضية، وليس السقف. إنها في المقام الأول من الأهمية دعوة موجهة إلى مزيد من الناس لإخبارنا عن أشكال حوكمة الذكاء الاصطناعي التي يرغبون في رؤيتها.
إذا كان للذكاء الاصطناعي أن يحقق إمكاناته العالمية، فإن الحاجة واضحة إلى إنشاء هياكل وحواجز حماية جديدة لمساعدتنا جميعا على تحقيق النجاح مع تطوره. فالجميع لديهم مصلحة في تطوير الذكاء الاصطناعي بشكل آمن ومنصف وخاضع للمساءلة. ومخاطر التقاعس عن العمل واضحة أيضا. نحن نؤمن بأن حوكمة الذكاء الاصطناعي العالمية تشكل ضرورة أساسية لجني الفرص الكبرى والتغلب على المخاطر التي تمثلها هذه التكنولوجيا لكل دولة، ومجتمع، وفرد، اليوم ولأجيال قادمة.
المصدر : https://annabaa.org/arabic/views/37530