مذيعو أخبار ذوو مظهر واقعي ينشرون الدعاية، ومشاهير يرددون أشعار المعارك الإرهابية، وبوتات دردشة إلكترونية تجعل ردودها تتفق مع اهتمامات المستخدمين؛ كلها حيلٌ تتبعها الجماعات الإرهابية لاستغلال الذكاء الاصطناعي لنشر فكرها وتجنيد عناصر جديدة.
أمست تقنيات الذكاء الاصطناعي بعد انتشارها عبر الإنترنت من الأدوات التي تستخدمها الجماعات الإرهابية، مثل داعش والقاعدة، للتودد إلى شباب إفريقيا وبقاع أخرى ممن نشأوا على الإنترنت ويستمدون معلوماتهم من وسائل الإعلام الاجتماعي.
يقول السيد دانيال سيغل، الباحث في مجال الدعاية الرقمية في كلية الشؤون الدولية والعامة بجامعة كولومبيا، إن إلباث الدعاية الإرهابية ثوب المحتوى الذي يبدو حقيقياً يجعل القائمين على وسائل الإعلام الاجتماعي لا يدركون الأفكار المراد نشرها.
ويقول في تحليلٍ للشبكة العالمية للتطرف والتكنولوجيا:”تعمل هذه الفيديوهات على وضع سرديات متطرفة في ثنايا محتوىً يحاكي الترفيه الشعبي في أسلوبه ونبرته، فلا تدركها طرق التدقيق المعتادة المُطبَّقة على مثل هذه الرسائل، فيصبح الفكر المتطرف أقرب إلى أفهام جمهور أوسع وأحب إلى قلوبهم.“
وذكر أن ذلك المحتوى كثيراً ما يُراعى حس الفكاهة والدعابة، لكنه يستغل أيضاً حب المشاهدين للمشاهير لإغرائهم بقراءة أو مشاهدة المزيد منه دون أن يُدركوا أنهم يُلقنون ذلك الفكر.
ويقول خبراءٌ إن «التزييف العميق»، وهو عبارة عن رسائل مُولَّدة بالذكاء الاصطناعي وتبدو حقيقية، يجعل التمييز بين الحقيقة والخيال شبه مستحيل. وترى الباحثة ليديا بيرند أن هذا يهدم الثقة في المؤسسات الإعلامية الشرعية والمؤسسات الحكومية على السواء.
وتقول في مقال لها في مجلة «جورج تاون سكيورتي ريفيو» مؤخراً: ”تخيل مقطع فيديو بتقنية التزييف العميق يُصوِّر زعيماً سياسياً يُعلن الحرب أو رجل دين يدعو إلى العنف والبطش، ولك أن تتخيل بعدها حجم الفوضى والعنف الناجم عن ذلك المحتوى.“
تستخدم الجماعات الإرهابية بالفعل الذكاء الاصطناعي لإعداد محتوىً مزيف شديد الواقعية، مثل مشاهد أطفال مصابين أو هجمات مُفبركة غايتها تحريك مشاعر المشاهدين.
وذكرت المحللة سمية أواستي في مقال لها بمؤسسة أوبزرفر للبحوث مؤخراً أن الذكاء الاصطناعي يُخفي هوية المروجين الحقيقيين من الإرهابيين خلف تقنية التزييف العميق، فيفسد عمل أدوات التعرف على الوجه ويُعيق جهود مكافحة الإرهاب.
أجرت جماعة واحدة على الأقل تابعة للقاعدة ورشاً حول استخدام الذكاء الاصطناعي لإعداد الدعاية البصرية، وأعدت دليلاً إرشادياً لاستخدام بوتات الدردشة لزرع الفكر المتطرف في نفوس من يمكن تجنيدهم. كما يُمكن لبوتات الدردشة وتقنيات الذكاء الاصطناعي الأخرى عمل شفرة حاسوبية للهجمات السيبرانية، والتخطيط لشن هجمات واقعية، وجني المال بطريق العملات المشفرة.
تستخدم الجماعات الإرهابية الذكاء الاصطناعي لعمل محتوىً دعائي بسرعة باستخدام لقطات فيديو تلتقطها كاميرات المسيَّرات في ساحة المعركة. ويمكن أن تبدو الفيديوهات المفبركة وكأنها قنوات إخبارية مشروعة مثل الجزيرة أو «سي إن إن». ويمكن تصميم المذيعين المُولَّدين بالذكاء الاصطناعي وكأنهم شخصيات من مناطق أو طوائف يستهدفها الإرهابيون للتجنيد منها.
يستخدم داعش مثل هذا المحتوى المُولَّد بالذكاء الاصطناعي في إطار برامجه الدعائية المسماة «حصاد الأخبار»، إذ تقوم تقنية الذكاء الاصطناعي لتحويل النصوص إلى كلام بتحويل النص المكتوب إلى صوت بشري.
ويقول خبراء مكافحة الإرهاب إن الحكومات وشركات الإعلام الاجتماعي عليها تكثيف جهودها لاكتشاف المحتوى المُولَّد بالذكاء الاصطناعي، كالمحتوى الذي ينشره داعش والقاعدة.
ويمكن أن يقتضي ذلك من شركات الإعلام الاجتماعي أن تعزز الاستخبارات مفتوحة المصدر لمواكبة اتجاهات الإرهاب، ومن شركات الذكاء الاصطناعي أن تتعاون مع منصات الإعلام الاجتماعي والأجهزة الحكومية للارتقاء بأساليب الكشف عن استخدام تقنياتها في أغراض خبيثة والتصدي لذلك.
ولكن هنالك حدودٌ للذكاء الاصطناعي في يد الإرهابيين، إذ يعترض بعض أعضاء الجماعات الإرهابية الإسلامية على عرض وجوه بشرية في الصور المُولَّدة بالذكاء الاصطناعي، فيضطر بعض مصممي الفيديوهات إلى إخفاء الوجوه، فيقل تأثير تلك الفيديوهات.
كما يخشى الإرهابيون أن ينقلب الذكاء الاصطناعي عليهم.
فقد حذَّرت جماعات تابعة للقاعدة عناصرها من أن قوات الأمن يمكن أن تستخدم الصوت المُولَّد بالذكاء الاصطناعي لإعطاء أوامر زائفة لأتباعها أو لنشر حالة من البلبلة وتعطيل العمليات الإرهابية.
وأفاد موقع «هوم أنغل» أن تحذيراً من هذا القبيل صدر باللغة العربية على تطبيق تلغرام للمراسلة لعناصر جماعة أنصار المسلمين في بلاد السودان، المنشقة عن جماعة بوكو حرام، في نيجيريا.
وذكر أن الرسالة قالت: ”بات من الممكن عمل أصوات بفضل التقنيات الحديثة، ومع أنها لا تضاهي الأصوات الطبيعية بعدُ، فإنها لا تزال تتطور، ويمكن استخدامها ضد المتشددين.“