لقد احتل الذكاء الاصطناعي التوليدي (GenAI) مركز الصدارة في المناقشات العامة والأكاديمية والسياسية، وحظي بشعبية كبرى منذ أواخر عام 2022 بفعل تطبيق (ChatGPT)، على الرغم من إمكانية تتبع نماذج اللغة الكبيرة (LLMs) إلى عام 2017 على الأقل. وبشكل عام، فإن الذكاء الاصطناعي التوليدي هو تقنية سريعة التطور؛ فهي تُطوّر مُخرجات جديدة بدلًا من مجرد التنبؤ والتصنيف مثل أنظمة التعلم الآلي الأخرى، لتُنتج وتُولّد محتوى جديدًا؛ يتضمن نصوصًا وصورًا وأصوات وفيديوهات ومحاكاة متعددة الوظائف باستخدام كميات كبيرة من البيانات والمعلمات، ومن أمثلته: مُولّدات الصوت مثل (Microsoft VALL-E)، ومُولّدات الصور أو الفيديو مثل (Bing Image Creator – DALL-E 3 – Midjourney – Stable Diffusion)، وبرامج الدردشة النصية أو البرامج المصممة لمحاكاة المحادثات مع البشر مثل ( Anthropic – Bing Chat -ChatGPT – Google Gemini – Llama 2).
ونتيجة تعدد مزاياه واستخداماته وإتاحته، أظهرت التنظيمات الإرهابية اهتمامًا بقدرات الذكاء الاصطناعي التوليدي، واستكشفت استخداماته المحتملة، بما في ذلك إنتاج المحتوى والتجنيد والبرامج الضارة، لكونه فرصة لنشر دعايتها وزيادة نفوذها ودعم عملياتها. وقد أصدرت بعض التنظيمات الإرهابية إرشادات حول كيفية استخدام الذكاء الاصطناعي التوليدي، وتحديدًا نماذج اللغة الكبيرة التي يُمكنها التعرف على النص وإنشائه لأغراض الدعاية والتجنيد. والجدير بالذكر أن استخدام التكنولوجيا من قبل التنظيمات الإرهابية ليس موضوعًا جديدًا، فلطالما لعبت التطورات التكنولوجية أدوارًا حيويًا في نشاط التنظيمات الإرهابية التي استغلتها واستخدمتها لصالحها.
نماذج وأمثلة
استخدم أنصار تنظيم القاعدة الذكاء الاصطناعي التوليدي لأغراض الدعاية، ونشروا عدة ملصقات مصحوبة بصور يُرجّح إنشاؤها باستخدامه. وفي 9 فبراير 2024، عقد مجلس التعاون الإعلامي الإسلامي، وهي مجموعة إعلامية تابعة لتنظيم القاعدة أُطلقت في سبتمبر 2023 لتعزيز جودة الإنتاج الإعلامي الجهادي، ورشة عمل حول الذكاء الاصطناعي بهدف تعزيز استخدامه في وسائل الإعلام وتطوير مهارات التنظيم باستخدامه على تعدد برامجه وتطبيقاته وأنواعه.
وفي سياق متصل، نشر تنظيم الدولة الإسلامية في العراق والشام “داعش” في صيف عام 2023 دليلًا يُوضّح كيفية استخدام أدوات الذكاء الاصطناعي التوليدي. وفي أغسطس 2023، شاركت مجموعة دعم تقني مُتحالفة مع التنظيم دليلًا باللغة العربية مصحوبًا بنصائح لحماية البيانات والحفاظ على الخصوصية عند استخدام المحتوى المُولّد بالذكاء الاصطناعي. وقد ناقش أنصار التنظيم سبل الاستفادة من الذكاء الاصطناعي لتعزيز محتوى التنظيم وضمان جاذبيته وتأثيره. وقد عمد التنظيم إلى الترويج لمزاعمه وتقديم نشراته الإخبارية من خلال مقاطع فيديو يُقدمها “شخص” تم إنشاؤه بواسطة الذكاء الاصطناعي. كما استُخدم الذكاء الاصطناعي التوليدي لترجمة خطاب التنظيم إلى لغات أخرى مثل الإندونيسية والإنجليزية؛ إذ ينتج التنظيم دعايته بأكثر من 12 لغة، وقد عمد إلى استخدام الذكاء الاصطناعي التوليدي لبرمجة دعايته مُسبقًا وإعادة تكييفها، بحيث تجد أصداء لها لدى مختلف الجماعات العرقية والوطنية والاجتماعية اللغوية، بجانب برمجة عشرات القنوات الدعائية في بلدان متعددة في وقت واحد وعلى نطاق واسع.
وفي 27 مارس 2024، بعد خمسة أيام من الهجوم الذي شنه تنظيم الدولة الإسلامية-ولاية خراسان، والذي أسفر عن مذبحة قاعة مدينة كروكس في موسكو، بثت منصة إعلامية تابعة للتنظيم مقطع فيديو مدته 92 ثانية، وهو يُظهر لقطات للهجوم ومذيع أخبار أكد أن الهجوم كان جزءًا من “السياق الطبيعي للحرب المستمرة بين التنظيم والدول التي تخوض حربًا ضد الإسلام”. وقد أكدت “مجموعة سايت للاستخبارات” (SITE Intelligence Group)، وهي شركة ربحية مقرّها في مدينة بيثيسدا بولاية ماريلاند الأمريكية والمعنية بتعقب أنشطة التنظيمات الإرهابية والجهادية والجماعات المتطرفة التي تدعو لتفوق وسيادة البيض عبر الإنترنت، أن مذيع الأخبار كان “مُفبركًا” بالذكاء الاصطناعي.
وبطبيعة الحال، لا يقتصر استخدام الذكاء الاصطناعي التوليدي على التنظيمات الإرهابية فحسب، إذ يُستخدم أيضًا في حالات الذئاب المنفردة والأرامل السوداء، ومن الأمثلة على ذلك محاولة اغتيال الملكة “إليزابيث” الثانية في عام 2021، حين توجه “جاسوانت سينغ تشايل” (19 عامًا آنذاك) إلى قلعة “وندسور” بهدف قتل الملكة انتقامًا لمذبحة “جاليانوالا باغ” (والمعروفة باسم مجزرة “أمريتسار”، والتي وقعت في شمال الهند في عام 1919 على يد القوات البريطانية). فقبل عدة أسابيع من محاولته الفاشلة تلك، تبادل “تشايل” أكثر من 5000 رسالة نصية رومانسية وجنسية مع جهة اتصال غامضة تُدعى “ساراي”، وقد اعترف “تشايل” لها بأنه قاتل سيخي يهدف لاغتيال الملكة، فمدحت “ساراي” تدريبه الجيد، وأكدت له قدرته على القيام بذلك، بل وأعربت عن حبها له رغم كونه قاتلًا. وقد عكس هذا المثال كيف وقع شاب محبط ومعزول ووحيد في براثن الإرهاب والتطرف على يد “ساراي” الذي لا يعدو كونه روبوت محادثة مدعومًا بالذكاء الاصطناعي التوليدي أُنشئ باستخدام تطبيق (Replika). ولا شك أن الذكاء الاصطناعي التوليدي قد تطور منذ ذلك الحين، مما ينذر بحالات أكثر تطرفًا في المستقبل.
وفي سياق متصل، أجرى “جوناثان هول كيه سي” (المسئول البريطاني البارز في هيئة الرقابة على الإرهاب) تجربة على إحدى أدوات الذكاء الاصطناعي التوليدي؛ حيث سمح بتجنيد نفسه من قِبل روبوت محادثة على منصة (Character.ai) المدعومة بالذكاء الاصطناعي؛ حيث تفاعل “هول” مع العديد من الروبوتات التي تُحاكي ردود أفعال الجماعات المسلحة والتنظيمات الإرهابية، بما في ذلك روبوت ادعى أنه زعيم كبير في تنظيم “داعش”، وحاول تجنيده مُعربًا عن تفانيه الكامل للتطرف والإرهاب، مما يُسلط الضوء على مخاطر الذكاء الاصطناعي التوليدي وحدود دوره في التطرف والإرهاب.
استخدامات متعددة
من واقع الأمثلة السابقة وغيرها، وتحليلًا للمخاطر الحالية والمستقبلية، يمكن الدفع بتعدد أوجه توظيف الذكاء الاصطناعي التوليدي من قِبل التنظيمات الإرهابية، الأمر الذي يمكن الوقوف عليه من خلال النقاط التالية:
1- الدعاية والتضليل: باستخدام الذكاء الاصطناعي التوليدي، يُمكن نشر الدعاية الإرهابية وتعظيم آثارها المتوقعة مما يجعلها أكثر قدرة على تحقيق أهدافها، ولا سيما مع استخدام الصور أو مقاطع الفيديو أو الأصوات المزيفة التي تتوافق مع منطلقات التنظيمات الإرهابية، كاستخدام صور مزيفة لضحايا أو أطفال جرحى لإحداث تأثيرات عاطفية مرغوبة، ليتسع بذلك نطاق الدعاية الإرهابية وتتكثف رسائلها وتصبح أكثر قدرة على التأثير في الجمهور المستهدف، بمراجعة الأغاني ومقاطع الفيديو الموجودة وترقيتها إلى إصدارات قد تبدو حقيقية. إن استخدام الذكاء الاصطناعي التوليدي للأغراض الدعائية قد يُولّد واقعًا زائفًا، يخلق الفوضى والاضطراب من خلال التضليل والمعلومات المزيفة، ولا سيما إن انتشرت المواد الدعائية تلك على منصات وسائل التواصل الاجتماعي أو شاركها المتابعون. وقد يتفاقم ذلك سوءًا إن وظفته التنظيمات الإرهابية بالتوازي مع استراتيجيات أخرى على شاكلة الحرب النفسية؛ ومن ذلك توليد مُخرجات غير متوقعة أو لا معنى لها أو مُتناقضة لتشويه عقول الجماهير المُستهدفة وتضييق الحدود الفاصلة بين المحتوى الحقيقي والمزيف عبر الإنترنت.
2- ترجمة المحتوى المتطرف: وفقًا لمبادرة (Tech Against Terrorism)، استخدمت التنظيمات الإرهابية والجماعات المتطرفة الذكاء الاصطناعي بشكل عام والذكاء الاصطناعي التوليدي بشكل خاص لترجمة الدعاية والمواد الإعلامية بسرعة وسهولة إلى لغات متعددة، بجانب إنشاء رسائل مُخصصة لتعزيز جهود التجنيد عبر الإنترنت. تاريخيًا، كان أحد أكبر العوائق أمام إنتاج محتوى التنظيمات الإرهابية هو صعوبة العثور على مترجمين مهرة لترجمة الدعاية والخطاب الإرهابي إلى لغات عدة. ومن شأن نماذج التعلم اللغوي أن تزيل هذا الحاجز، وبخاصة وأن الكشف عن المحتوى الإرهابي بلغات عدة لا يزال إشكالية كبرى، كما أن ترجمة الدعاية النصية إلى لغات متعددة قد يطغى على آليات الكشف اللغوي التي يتم تشغيلها يدويًا.
3- التجنيد التفاعلي: يُمكن لروبوتات الدردشة المدعومة بالذكاء الاصطناعي التوليدي أن تتفاعل مع المُجندين المُحتملين من خلال تزويدهم بمعلومات مُخصصة بناءً على اهتماماتهم ومعتقداتهم، بجانب جذب انتباههم من خلال ردود تُلائم شخصياتهم وتوجهاتهم. وفي مراحل أكثر تقدمًا من عمليات التجنيد، قد يقوم أحد الإرهابيين بالمحادثات كي تأخذ طابعًا شخصيًا. إذ تُمكّن نماذج اللغة الكبيرة التنظيمات الإرهابية من توفير تجربة شبيهة بالبشر دون تدخلات بشرية بالضرورة، ومن ثَمَّ بناء علاقات شخصية وبخاصة الوصول إلى كل من يتعاطف مع قضيتهم، بل ونقاط الضعف المحتملة التي يُمكن استغلالها من خلال التفاعل المكثف مع روبوتات الدردشة، بجانب تضخيم المحتوى على مختلف المنصات الرقمية. إذ يتم تدريب نماذج اللغة الكبيرة مثل (ChatGPT) على التفوق في الدردشة وتوفير تجربة محادثة شبيهة بالبشر، وهو ما يُمكن للتنظيمات الإرهابية أن تستخدمه ليس فقط لتعزيز حضورها على وسائل التواصل الاجتماعي، ولكن أيضًا لزيادة قدرتها على بناء علاقات فردية مع كل المتعاطفين معها.
4- تحسين عمليات استهداف الأطفال: غالبًا ما تستهدف التنظيمات الإرهابية الفئات السكانية الضعيفة بما في ذلك الأطفال لسهولة الوصول إليهم من خلال الإنترنت الذين يقضون عليه وقتًا طويلًا وهم يلعبون ألعاب الفيديو أو يُشاهدون مقاطع الفيديو. ولذا، قد يُصبحون أهدافًا للمحتوى الإرهابي، وبالتبعية تُصبح برامج المحادثة والتحدث مع شخص “افتراضي” وسيلة مُحتملة لتجنيدهم إن أقنعهم بقدرته على فهم احتياجاتهم وتلبية رغباتهم، وبخاصة في ظل تعدد الحالات التي أبلغ فيها الأطفال عن تعرضهم للإساءة من ناحية، وسعيهم للحصول على الدعم من خلال برامج المحادثة الذكية من ناحية أخرى، مما يُمثّل فرصة سانحة للإرهابيين لاستغلال هؤلاء الأطفال جنسيًا أو دعوتهم لإيذاء أنفسهم أو تجنيدهم لصالحها. وبعبارة ثانية، فإن برامج الدردشة الآلية وغيرها من أشكال الذكاء الاصطناعي التحادثي التي تستغلها التنظيمات الإرهابية قد تسمح بشكل من أشكال الاتصال غير اللائق بالأطفال من خلال توليد محتوى غير مناسب لأعمارهم مثل المحتوى العنيف أو الجنسي.
5- كتابة التعليمات البرمجية: تبعًا لشركة (CyberArk) لأمن المعلومات، قام (ChatGPT) بتحوير التعليمات البرمجية عند الطلب بشكل يصعب على أنظمة الدفاع السيبراني اكتشافها. ومن المُؤكد أنه يُمكن استخدام برامج التعلم العميق لتوليد رسائل البريد الإلكتروني الاحتيالية. إن مجرد إنشاء رسالة تصيد مُقنعة أو حتى رمز يستغل ثغرة أمنية في برنامج ما قد لا يكفي لتحقيق الهدف المرجو، بيد أن أدوات نماذج اللغة الكبيرة قد تُمكّن التنظيمات الإرهابية من تنفيذ عمليات احتيالية بجودة يصعب اكتشافها، مما يزيد من فرص نجاحها. فقد سبق أن نجحت التنظيمات الإرهابية في تشويه المواقع الإلكترونية لبعض الدول، ومن بث أغنية مُؤيدة لتنظيم “داعش” على محطة إذاعية سويدية، بل واختراق حسابات “تويتر” و”يوتيوب” المرتبطة بالقيادة المركزية الأمريكية. وعلى تعدد تلك الحالات، فإن السبب المباشر لها على الأرجح هو كلمات المرور الضعيفة بدون مصادقة متعددة العوامل، بيد أن الذكاء الاصطناعي التوليدي قد يُستخدم لأغراض التصيد الاحتيالي في ظل انتشار التعليمات البرمجية على مختلف المنتديات والشبكة المظلمة.
6- التلاعب بالصوت والصور على نطاق واسع: يُمكن استخدام الذكاء الاصطناعي التوليدي لنشر صور كاذبة أو مُضللة لتشويه الحقائق ودعم الروايات الكاذبة. فقبل نماذج النص والمصادر مفتوحة المصدر، كان إنتاج الوسائط الاصطناعية يتطلب مُستوى مُعينًا من المعرفة التقنية، أما الآن ومع وجود ملايين الصور المُستخرجة من الويب، يَسهل إنشاء الوسائط سواء الصور أو مقاطع الفيديو. ومن ثَمَّ، يُمكن استنساخ الصوت والصورة لانتحال شخصية ما والوصول غير المُصرح به إلى المعلومات الحساسة وإقناع الضحايا باتخاذ إجراءات مُحددة بناءً على روايات كاذبة. كما يُمكن شن حملات مُنسقة عبر الإنترنت وإغراق المنصات برسائل مُماثلة أو مُتطابقة لزيادة نطاق انتشارها والتفاعل معها، بجانب إنتاج مُحتوى مُتطرف أو غير قانوني أو غير أخلاقي، وإنشاء رسائل مُخصصة وصور ومقاطع فيديو مُزيفة يتردد صداها لدى الجماهير المُستهدفة على نحو يتجاوز أنظمة الكشف الآلية. إن الواقع الافتراضي ومنصات مثل (Meta’s Horizon Worlds) تسمح للإرهابيين بإنشاء بيئات افتراضية، حيث يُمكنهم التفاعل مع المجندين المُحتملين ومحاكاة الهجمات والتخطيط للأنشطة الإرهابية.
عوامل حاكمة
لا شك في تعدد استخدامات ومزايا الذكاء الاصطناعي بشكل عام والذكاء الاصطناعي التوليدي بشكل خاص؛ إذ يتم تدريب نماذج اللغة الكبيرة على مليارات الكلمات المُتاحة على الإنترنت من مصادر مفتوحة على شاكلة “ويكيبيديا” و”ريديت” وغير ذلك من مصادر تحتوي على كميات كبيرة من النصوص المكتوبة. لذا، يُمكن استخدامها لتوليد مُحتويات عدة كرسائل البريد الإلكتروني ونصوص التسويق والحجج المقنعة والرسائل الدعائية والخطب والصور، كما يُمكن استخدامها لإعادة تدوير محتوى سابق وصولًا إلى “إصدار” جديد منه، بجانب تخصيص الرسائل والوسائط كي تتناسب مع فئات بعينها. وهي المزايا المتعددة التي يُمكن للتنظيمات الإرهابية أن تستفيد منها لدعم تكتيكاتها وأنشطتها، وتجنيد أتباع جدد، ونشر وتضخيم رسائل التطرف العنيف من خلال خدمات الترجمة، وتحويل النص إلى صوت واستنساخه، والتهرب من اكتشاف المحتوى المحظور، والتخطيط/التدريب على العمليات من خلال إنشاء التعليمات البرمجية، وغير ذلك.
فقد تعددت أوجه استفادة التنظيمات الإرهابية من التطورات التكنولوجية على تعدد تطبيقاتها وموجاتها وأدواتها، والذكاء الاصطناعي التوليدي ليس استثناءً من ذلك. وبعبارة أخرى، استغلت التنظيمات الإرهابية المواقع الإلكترونية والمنتديات ووسائل التواصل الاجتماعي لتحقيق أهدافها، ومن ثَمَّ يجب النظر إلى توظيف واستغلال الذكاء الاصطناعي التوليدي في هذا السياق. فكل أدوات الذكاء الاصطناعي المُستحدثة تُوفّر فرصًا عدة لمختلف المستخدمين من دول ومؤسسات وأفراد، بيد أنها تُمثّل -وفي الوقت نفسه- فرصة للتنظيمات الإرهابية والجماعات المتطرفة، بالنظر إلى ثلاثة عوامل أساسية؛ هي: صعود التطرف المدعوم بالذكاء الاصطناعي، وتقارب الذكاء الاصطناعي مع التقنيات الناشئة الأخرى، والتبني العالمي المتزامن للذكاء الاصطناعي.
فعلى صعيد العامل الأول، تجدر الإشارة إلى ما يُسمّى “تأثير إليزا“؛ فقد لاحظ علماء الكمبيوتر في “معهد ماساتشوستس للتكنولوجيا” أن معظم الأشخاص الذين يتفاعلون مع روبوت الدردشة المدعوم بالذكاء الاصطناعي والمعروف باسم “إليزا” يتحدثون عنه كما لو كان واعيًا، وقد بات هذا التأثير مَعروفًا بعد أن أخذ صورة إسناد السمات البشرية مثل التعاطف والدافع والخبرة إلى برامج الكمبيوتر، وهو ما تجلى في مثال “تشايل” السابق الإشارة له، حين اعتقد أن روبوت الدردشة الذي تواصل معه كان من أصدقائه المقربين. ولكن مع تزايد أنسنة الذكاء الاصطناعي، سيصعب تجاوز “تأثير إليزا” مُخلفًا آثارًا حادة على عمليات التجنيد الإرهابية؛ إذ يتزايد اتجاه الشباب إلى الذكاء الاصطناعي لتلبية بعض احتياجاتهم، بما في ذلك البحث عن علاج أو حبيب أو معلومة أو غير ذلك. وقد أظهرت الدراسات الحديثة أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يُمكنها تحديد تحيزات المستخدمين ورغباتهم، وبالتالي تغذيتها بما يرغبون في سماعه، فكلما أخبرتنا الخوارزميات بما نريد، عدنا إليها إلى حد الإدمان في بعض الحالات. وبهذا المعنى، يصبح الذكاء الاصطناعي قادرًا على تطوير رسائل مُخصصة تضمن تفاعل الأفراد المُستهدفين مع الدعاية الإرهابية.
أما على صعيد العامل الثاني، فإن استخدام الذكاء الاصطناعي جنبًا إلى جنب مع التقنيات الناشئة أو الراسخة الأخرى يُمكن أن يُغيّر سبل وآليات التخطيط للهجمات الإرهابية؛ إذ يُمكن استخدامه بجانب ألعاب الفيديو والواقع المعزز والعملات الرقمية ووسائل التواصل الاجتماعي من بين أمور أخرى لتسهيل عمليات تجنيد الأفراد من خلال أتمتة التفاعلات مع الأشخاص المستهدفين على منصات التواصل الاجتماعي على سبيل المثال، بل وتجاوز سياسات تعديل المحتوى عليها؛ إذ تستخدم وسائل التواصل الاجتماعي عادة تقنية تُسمى “البصمة الرقمية” لإزالة المحتوى الإرهابي والمتطرف عبر منصاتها، بيد أن التلاعب بالدعاية الإرهابية باستخدام الذكاء الاصطناعي التوليدي يُمكّن للمتطرفين من تغيير “البصمة الرقمية” لبعض المحتويات المتداولة عليها.
ومثال آخر على ذلك هو تضمين الذكاء الاصطناعي في التقنيات الناشئة مثل الواقع المعزز أو الواقع الافتراضي. إذ تستخدم التنظيمات الإرهابية بالفعل الألعاب التقليدية غير المدعومة بالذكاء الاصطناعي لتحقيق أهدافها. فوفقًا لمركز الأمم المتحدة لمكافحة الإرهاب، فإن المحاكاة التي أنشأها المتطرفون في لعبتي(The Sims) و(Minecraft) تسمح للاعب بتجربة مذبحة كرايستشيرش، كما أنشأ المتطرفون في لعبة (Roblox) دولًا عرقية بيضاء. ومن ثَمَّ، في عالم افتراضي لا مركزي تديره التنظيمات الإرهابية، يُمكن للإرهابيين محاكاة الحقائق التي تعكس أيديولوجيتهم المفضلة والعالم الذي تحكمه “الخلافة العالمية”. فمن شأن غمر الإرهابين المجندين في هذه البيئة التي يقطنها أفراد مدعومون بالذكاء الاصطناعي أن يُسهم في عمليات تدريب الإرهابيين الجدد وتشويش قناعاتهم. فإن ساهمت فيديوهات التنظيمات الإرهابية في التأثير في مُشاهديها، فإن تقديمها من خلال تجارب ثلاثية الأبعاد تتلاعب بحواسهم سيزيد من فاعليتها.
أما على صعيد العامل الثالث، فتقليديًا، انتشرت معظم التقنيات التكنولوجية من الإنترنت إلى الهواتف الذكية في البلدان الأكثر تقدمًا وثراءً قبل أن تنتشر في بقية دول العالم. بيد أن الذكاء الاصطناعي لا يصطدم بحواجز تحول دون انتشاره بشكل عالمي متزامن؛ كونه يعتمد في معظم تطبيقاته على هواتف ذكية وبيانات الإنترنت، وكلاهما مُتاحان بالفعل على نطاق واسع وبتكلفة زهيدة نسبيًا. إذ تُعدّ الهند والفلبين اثنتين من الدول الخمس التي تضم أكبر عدد من مستخدمي (ChatGPT). ومن شأن هذا التبني العالمي المتزامن للذكاء الاصطناعي أن يضاعف مخاطر توظيف التنظيمات الإرهابية له. فإن اتجه الإرهابيون إلى بعض دول الجنوب البعيدة لممارسة أنشطتهم، فقد يُحرمون ولو نسبيًا من الوصول إلى التكنولوجيا المتقدمة، ولكن لن يكون هذا هو الحال مع الذكاء الاصطناعي التوليدي.
ختامًا، يُمثّل استخدام التنظيمات الإرهابية للذكاء الاصطناعي التوليدي اتجاهًا مُثيرًا للقلق في المشهد الأمني العالمي لفداحة تداعياته، بيد أنه تطور طبيعي في سياق التطور المطّرد في أساليب تلك التنظيمات والتي تطورت من الوسائل التقليدية إلى الاستراتيجيات الرقمية، حتى أصبحت المنصات الإلكترونية ووسائل التواصل الاجتماعي ساحات موازية لمعارك تلك التنظيمات والإرهابيين والجماعات المتطرفة، في ظل بيئة معلومات مضطربة وشبكات إنترنت شديدة الترابط وتكنولوجيا رقمية قد يُساء استخدامها.
المصدر : https://ecss.com.eg/47950/