قلق من استخدام الذكاء الاصطناعي لتصنيع أسلحة بيولوجية وكيميائية

في 30 أكتوبر/تشرين الاول 2023، وقع الرئيس الأميركي جو بايدن أمرا تنفيذيا حمل رقم 14110 وعنوان “التطوير والاستخدام الآمن والموثوق به للذكاء الاصطناعي” بهدف ضمان قيادة الولايات المتحدة لتطويره واستخدامه بشكل آمن ومسؤول، مع وضع إطار حوكمة شامل يهدف إلى إدارة الأخطار واستغلال الفوائد التي يقدمها هذا الذكاء.

لعبت وزارة الأمن الداخلي دورا رئيسا في تنفيذ هذا الأمر. فواحدة من النقاط المهمة التي تم تسليط الضوء عليها في الأمر التنفيذي هي الحاجة إلى فهم أفضل وتخفيف أخطار استخدام الذكاء الاصطناعي في تطوير أو استخدام التهديدات الكيميائية والبيولوجية والإشعاعية والنووية، مع التركيز بشكل خاص على الأسلحة البيولوجية. وبهذا، تقود إدارة مكافحة أسلحة الدمار الشامل الجهود لتنسيق العمل مع الشركاء المحليين والدوليين لضمان حماية الولايات المتحدة من هذه التهديدات.

أعدت تلك الإدارة تقريرا شاملا لتقييم مدى إمكان استغلال الذكاء الاصطناعي في تطوير تهديدات الأسلحة النووية والبيولوجية والكيميائية، مع الأخذ في الاعتبار الفوائد التي يمكن أن يقدمها في مواجهة هذه التهديدات.

 

شترستوك شترستوك

يمكن استغلال الأتمتة في المختبرات، التي تعمل بالذكاء الاصطناعي، لتوسيع نطاق إنتاج المواد الخطرة 

تعاونت وكالات الحكومة الأميركية، والأوساط الأكاديمية، والصناعة، في كتابة ذلك التقرير الذي كشف عن نتائج صادمة ومخيفة يمكن أن يلعبها الذكاء الاصطناعي في عملية تطوير أسلحة الدمار الشامل.

تشير نتائج التقرير إلى أن التطور السريع لتقنيات الذكاء الاصطناعي، وتداخلها مع الأبحاث الكيميائية والبيولوجية، يتطلب أن تكون إحدى أولويات الحكومة الأميركية هي بناء توافق بين وكالات الأمن القومي والصحة العامة حول الأخطار المحتملة المرتبطة باستخدام هذه التقنيات.

وهذا أمر ضروري نظرا الى أن معظم نماذج الذكاء الاصطناعي ومجموعات البيانات المرتبطة بها موجودة في أيدي المنظمات الخاصة أو الأكاديمية، مما يزيد سهولة الوصول إليها، حتى للمستخدمين ذوي النيات السيئة. ومع تقدم تقنيات الذكاء الاصطناعي، تصبح هذه الأخطار أكبر إذ يمكن أن تخلق أخطارا جديدة على الأمن الوطني من خلال تمكين الفاعلين الخبيثين من تصور وتنفيذ هجمات كيميائية أو بيولوجية أو إشعاعية أو نووية.

على الرغم من أن مطوري نماذج الذكاء الاصطناعي الحاليين قد طبقوا أنظمة لتقييم الأخطار داخليًا، فإن تنوع النهج والازدواجية في استخدام العلوم الأساسية يجعل من الضروري تشجيع التفاعل المستمر بين الصناعة والحكومة والأوساط الأكاديمية. وهذا التعاون يصبح أكثر أهمية في ضوء القصور في اللوائح الأميركية الحالية المتعلقة بالأمن البيولوجي والكيميائي، مما يزيد احتمالية النتائج الخطيرة غير المقصودة التي تهدد الصحة العامة والأمن القومي مع زيادة استخدام أدوات الذكاء الاصطناعي.

 

يمكن التلاعب بأنظمة الأمن السيبراني التي تعمل بالذكاء الاصطناعي لإخفاء الأنشطة غير المصرح بها في المختبرات، أو يمكن استخدام الذكاء الاصطناعي لتوليد بيانات مضللة

 

 

بالإضافة إلى ذلك، يتطلب التعاون مع الأطراف الدولية، بما في ذلك الحكومات والمنظمات غير الحكومية، تطوير أطر عمل مشتركة لإدارة أخطار الذكاء الاصطناعي والاستفادة من إمكاناته لتحقيق الخير. ويمكن أن يحقق دمج الذكاء الاصطناعي في قدرات الوقاية من تهديدات أسلحة الدمار الشامل والكشف عنها والاستجابة لها، فوائد كبيرة، كما يوفر فرصا لتعزيز جميع الجهود في الاستراتيجيا الوطنية للدفاع البيولوجي.

ذكاء من أجل السلاح

لدى الذكاء الاصطناعي القدرة على تسريع عمليات البحث والتطوير في مجال الأسلحة البيولوجية والكيميائية بشكل لم يكن من الممكن تصوره من قبل. حيث يمكن للنماذج المتقدمة أن تحلل كميات ضخمة من البيانات الجينية والبيولوجية، وتساعد في تصميم جزيئات جديدة أكثر فعالية، وحتى تحسين طرق إيصال المواد الكيميائية والبيولوجية إلى الأهداف. هذه الإمكانات قد تكون مفيدة في تطوير علاجات جديدة للأمراض، لكنها تصبح كارثية عندما تستخدم لإنشاء أسلحة قادرة على الفتك بالجماعات البشرية بشكل غير مسبوق.

يمكن إعادة استخدام الأدوات التي تعتمد على الذكاء الاصطناعي، وخاصة تلك المستخدمة في اكتشاف الأدوية والتركيب الكيميائي، أو إساءة استخدامها لتصميم عوامل بيولوجية أو كيميائية ضارة. على سبيل المثل، يمكن استخدام خوارزميات التعلم الآلي التي تتنبأ بالخصائص والسلوكيات الجزيئية لإنشاء سموم أو فيروسات أو عوامل بيولوجية أخرى جديدة أكثر فعالية أو يصعب اكتشافها.

يمكن استخدام الذكاء الاصطناعي لتعزيز فعالية أنظمة التوصيل للعوامل الكيميائية والبيولوجية والنووية والإشعاعية. ويشمل ذلك تحسين الطائرات بدون طيار أو الصواريخ أو غيرها من طرق الانتشار لتعظيم تأثير الهجوم البيولوجي أو الكيميائي. يمكن أن تساعد خوارزميات الذكاء الاصطناعي في ضبط هذه الأنظمة لضمان وصول العوامل إلى أهدافها بدقة وكفاءة أكبر.

كما يمكن استغلال الأتمتة في المختبرات، التي تعمل بالذكاء الاصطناعي، لتوسيع نطاق إنتاج المواد الخطرة. يمكن للأنظمة الروبوتية التي يتحكم فيها الذكاء الاصطناعي تبسيط تركيب المواد الخطرة والتعامل معها، مما يسهل إنتاج هذه العوامل بكميات كبيرة دون تدخل بشري مكثف.

 

أ ب أ ب

شعار “أوبن آيه آي” على هاتف محمول مع صورة على شاشة كومبيوتر تم إنشاؤها بواسطة نموذج “دال إي” لتحويل النص إلى صورة 

وقد يستخدم المجرمون أدوات الذكاء الاصطناعي للتهرب من جهود السلطات للكشف والمراقبة. على سبيل المثل، يمكن التلاعب بأنظمة الأمن السيبراني التي تعمل بالذكاء الاصطناعي لإخفاء الأنشطة غير المصرح بها في المختبرات، أو يمكن استخدام الذكاء الاصطناعي لتوليد بيانات مضللة، مما يجعل من الصعب على الجهات التنظيمية تتبع ووقف إنتاج التهديدات الكيميائية والبيولوجية والنووية والإشعاعية.

وفي مجال تقنيات تحرير الجينات مثل “كريسبر”، قد يساء استخدام دور الذكاء الاصطناعي في الهندسة الحيوية، لتصميم مسببات الأمراض ذات الضراوة المتزايدة، أو المقاومة للعلاجات الحالية، أو القدرة على استهداف مجموعات سكانية محددة. يمكن للذكاء الاصطناعي تسريع تصميم واختبار مثل هذه المسببات للأمراض، مما يجعل من السهل تطوير أسلحة بيولوجية متطورة.

طبيعة مزدوجة

الطبيعة المزدوجة الاستخدام للعديد من تطبيقات الذكاء الاصطناعي تعني أن الأدوات المصممة لأغراض مفيدة، مثل البحث الطبي أو مراقبة البيئة، يمكن إعادة استخدامها لاستخدامات ضارة. هذه المعضلة المزدوجة الاستخدام مثيرة للقلق بشكل خاص في مجالات مثل البيولوجيا الاصطناعية، حيث قد يساعد الذكاء الاصطناعي في تصميم الكائنات الحية التي يمكن تسليحها.

أحدث الذكاء الاصطناعي تأثيرا كبيرا على الأبحاث في مجالي العلوم الفيزيائية والحياتية، وسيستمر في هذا التأثير بطرق متوقعة وأخرى غير متوقعة. فتلك التأثيرات، التي تسبب فيها الذكاء الاصطناعي، سلاح ذو حدين، يمكن استخدامه بناءً على نية المستفيدين وجودة البيانات المستخدمة.

 

لا تقتصر استخدامات الذكاء الاصطناعي على تسريع وتيرة الأبحاث العلمية وإمكان استخدامه في تصنيع أسلحة كيميائية أو بيولوجية، ولكن تشمل أيضا إمكان استخدام التكنولوجيا في إجراء التجارب الكيميائية دون الحاجة إلى المعامل التقليدية المكلفة

 

 

وساهم الذكاء الاصطناعي بشكل كبير في تحسين سرعة وسهولة وتكلفة إجراء الأبحاث في كافة المجالات. شبهت ماري كالاهان، مساعدة وزير الأمن الداخلي الأميركي لمكتب مكافحة أسلحة الدمار الشامل، استخدام روبوت المحادثة “تشات جي بي تي”، بالحصول على درجة البكالوريوس في العلوم، لما يحتويه من معلومات وبيانات يمكن الحصول عليها بسرعة وبدقة.

بسبب القدرات الهائلة للذكاء الاصطناعي في دعم الأبحاث البيولوجية والكيميائية، أصبح هناك حاجة ماسة لتطوير نماذج لغوية كبيرة متخصصة في هذه المجالات أيضا. على سبيل المثل، في فبراير/شباط 2024، أطلق العلماء مشروعا لإنشاء أول نموذج أساسي شامل ومتخصص في الذكاء الاصطناعي في مجال البيولوجيا، بهدف ربط الذكاء الاصطناعي التوليدي بمستويات مختلفة من البيولوجيا، من الجزيئات إلى الكائنات الكاملة، وذلك بهدف تسريع الأبحاث في العلوم الطبية الحيوية والبيئية.

هذه الأخبار جيدة جدا لكل من يحب العلوم ويعمل بها، ولكنها مخيفة من جانب آخر، بسبب توافر هذه البيانات والأبحاث على الإنترنت، مما يساهم في إمكان وقوعها في أيدي أشخاص يرغبون في استخدامها لأغراض ضارة.

شهدت الأبحاث التي يتقاطع فيها الذكاء الاصطناعي مع الكيمياء والبيولوجيا تقدما سريعا خلال السنوات الماضية، متجاوزة أحيانا التشريعات والتنظيمات المتعلقة بالتقنيات الناشئة. ومع تزايد فعالية نماذج الذكاء الاصطناعي والبيانات المتاحة للتطبيقات العلمية، قد تصبح أيضا أداة للأشخاص الذين يرغبون في استخدام العلم والتكنولوجيا لأغراض ضارة بالمجتمع. يعتبر الإشراف البشري على تقنيات الذكاء الاصطناعي، خصوصا عندما تتقاطع مع العلوم الفيزيائية والحياتية، أمرا ضروريا لمعالجة الثغر، وتوجيه استخدام المعرفة بشكل صحيح، والحفاظ على السياق المستند إلى تقييم الأخطار.

المختبرات السحابية

لا تقتصر استخدامات الذكاء الاصطناعي في هذا المجال فقط على تسريع وتيرة الأبحاث العلمية وإمكان استخدامه في تصنيع أسلحة كيميائية أو بيولوجية، ولكن تشمل أيضا إمكان استخدام التكنولوجيا في إجراء التجارب الكيميائية دون الحاجة إلى المعامل التقليدية المكلفة.

وهناك تزايد في عدد الشركات التكنولوجية التي تقدم الآن خدمات عن بعد لما يُعرف باسم المختبرات السحابية. هذه المختبرات تشكل بيئة عمل افتراضية وتتيح إجراء التجارب افتراضيا بدلاً من استخدام المواد والمعدات في المختبرات التقليدية، مما يتيح الوصول الى النتائج نفسها تقريبا.

محاكاة التجارب عن بعد، من خلال هذه المختبرات، تتغلب على عائق التمويل الكبير اللازم لإنشاء مختبرات مزودة المعدات اللازمة للتجارب الكيميائية والبيولوجية، بالإضافة الي إمكان الوصول اليها من أي مكان.

لا تقتصر خطورة تقدم التكنولوجيا فقط على القيام بالأبحاث العلمية التي تتطلب وقتا وجهدا كبيرين، بل تمتد أيضا إلى تجريب النتائج عن بعد وبطريقة سلسة. تتزايد المخاوف من استخدام التكنولوجيا في إنتاج الأسلحة، بما في ذلك الأسلحة البيولوجية، لعدة أسباب. أولها، إمكان إخفاء الهوية عبر الإنترنت المظلم، مما يسمح للأفراد باستخدام هذه التقنيات لأغراض ضارة. أيضا، إمكان تسهيل الوصول إلى هذه المعلومات للأفراد العاديين، يزيد  المخاوف في شأن استخدامها.

 

شترستوك شترستوك

يمكن استخدام الذكاء الاصطناعي لتعزيز فعالية أنظمة التوصيل للعوامل الكيميائية والبيولوجية والنووية والإشعاعية 

وحتى مع محاولات الشركات تأمين المختبرات السحابية بأحدث التقنيات المتاحة، تظل هذه المختبرات عرضة للهجمات السيبرانية التي تهدف إلى الحصول على مثل هذه المعلومات من قبل الجماعات الإرهابية، وخاصة تلك المدعومة من الدول.

 

لا يمكن تجاهل حقيقة أن الذكاء الاصطناعي سيستمر في التطور، وأن تحدياته ستزداد تعقيدا

 

 

وتحاول الدول مواكبة التقدم السريع للتكنولوجيا من خلال تمرير تشريعات سواء كانت ملزمة أو غير ملزمة، لكن لا توجد تشريعات كافية وفعالة في هذا المجال لمنع الوصول إلى هذه المعلومات الى غير المصرح لهم، مما يجعل الوضع الراهن لإمكان الاستخدامات الخبيثة للذكاء الصناعي مفتوحا على كل الاحتمالات.

دفع التكنولوجيا الى الأمام في مواجهة حمايتها

تسعى غالبية الشركات العاملة في مجال الذكاء الاصطناعي إلى الظهور بمظهر المهتم بمعايير الأمن والسلامة، وتزعم أنها تستثمر في أبحاث حول كيفية تحييد الذكاء الاصطناعي عن استخدامه للأغراض الخبيثة. كما تستثمر هذه الشركات في أبحاث تسريع عملية تطوير النماذج اللغوية الكبيرة لدفع تطبيقات الذكاء الاصطناعي بسرعة لتحقيق المكاسب المالية. وبين هذين الهدفين تناقضات كبيرة. فبينما ليس بالضرورة أن يعني تأمين الذكاء الاصطناعي بطء عملية الإنتاج أو الابتكار، إلا أن الجدية في تأمين منتجات وتطبيقات الذكاء الاصطناعي تعتمد فقط على مجالس إدارات هذه الشركات.

وتكشف اعتبارات كثيرة مدى جدية الشركات في تأمين تطبيقاتها من الاستخدام الخبيث أو ضد الهجمات السيبرانية، وأهمها عامل الشفافية، فعملية استخدام البيانات وتغذية النماذج اللغوية الكبيرة الخاصة لإنتاج التطبيقات مهمة جداً في تحليل ما إذا كانت الشركة جادة وتستثمر في مجال الاستخدام الآمن للذكاء الاصطناعي أم تهتم فقط بالمكاسب المالية.

من سخرية القدر، ففي الشهر الذي صدر فيه التقرير الأميركي عن المخاوف من إنتاج أسلحة كيميائية وبيولوجية، تم إصدار وثيقة من عدد من العاملين الحاليين والسابقين في شركة “أوبن أيه آي” يحذرون فيها من خطورة عدم اتخاذ الإجراءات اللازمة لمنع الاستخدامات الخبيثة والضارة الناتجة من منتجات الذكاء الاصطناعي، إذا لم يتم اتخاذ إجراءات الشفافية وتفعيل رقابة الحكومات من خلال تشريعات قوية.

هذا الخطاب، الذي نُشر في الشهر الماضي، يعبر عما يدور داخل المجتمعات العاملة بالقطاع التكنولوجي من مخاوف في شأن السرعة الرهيبة التي يركض بها الذكاء الاصطناعي، في حين أن معظم الشركات العاملة في هذا المجال لديها الكثير من السياسات الداخلية غير المعروفة للجميع حول كيفية استخدام البيانات والمعلومات في تغذية الذكاء الاصطناعي، والأهم من ذلك، من لديه الحق في الوصول إلى هذه المعلومات.

وبالإضافة إلى تسليط الضوء على مشكلة عدم الشفافية وعدم وجود نظام عادل يمكن العاملين بهذه الشركات من الشكوى من الممارسات الخاطئة، اقترح المشاركون في هذا الخطاب عدة اقتراحات لتقليل الضرر الناتج من الذكاء الاصطناعي.

ناشد الخطاب جميع الشركات العاملة في هذا المجال الحيوي، خلق بيئة مناسبة للنقد البناء وعدم معاقبة العاملين بها إذا قرروا أن ينتقدوا سياسات الشركة التي يعملون بها. أيضا، يجب تحديد طريق آمن يخفي شخصية الموظف الذي يريد أن ينتقد السياسات الداخلية تحقيقا لمبدأ الشفافية وتشجيع العاملين في هذا القطاع على نشر ما يحدث خلف الأبواب المغلقة. هذه البيئة ستجلب الكثير من الأضواء على كيفية إدارة تطبيقات الذكاء الاصطناعي، وتشجع المناقشات بين جميع الأطراف للوصول إلى ممارسات حميدة تتحول في ما بعد إلى تشريعات فعالة لحماية البشرية من التوغل التكنولوجي، أو على الأقل، تقليل الضرر قدر الإمكان.

لا يمكن تجاهل حقيقة أن الذكاء الاصطناعي سيستمر في التطور، وأن تحدياته ستزداد تعقيدا. ولذلك، يجب أن نكون مستعدين للتعامل مع هذه التحديات من خلال تعزيز الجهود البحثية في مجال الأمن السيبراني، وتطوير أنظمة إنذار مبكر، والاستثمار في تقنيات الكشف والتصدي. كما يجب أن نعمل على بناء ثقافة عالمية جديدة تقوم على المسؤولية الأخلاقية في استخدام التكنولوجيا، حيث يكون الهدف الأساس للذكاء الاصطناعي هو تعزيز حياة البشر وليس تدميرها.

يشكل الذكاء الاصطناعي سلاحًا ذا حدين، ففي الوقت الذي يُمكن فيه أن يقود البشرية نحو مستقبل مشرق مليء بالابتكارات والتحسينات الصحية والاجتماعية، يحمل أيضًا إمكانية أن يكون أداة للدمار الشامل إذا لم يتم التحكم فيه بشكل صحيح. تقع المسؤولية على عاتق الجميع—الحكومات، المنظمات، والعلماء—لضمان أن يتم استخدام هذه التكنولوجيا لصالح الإنسانية وليس ضدها. ومن خلال التعاون الدولي وتطوير سياسات صارمة وشفافة، يمكننا أن نحقق الاستفادة القصوى من الذكاء الاصطناعي مع تقليل مخاطر استغلاله في تطوير أسلحة بيولوجية وكيميائية.

 

المصدر

حول الكاتب

مقالات ذات صله

الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

W P L O C K E R .C O M