Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    Africa Defense Forum
    • page d’accueil
    • Actualités du Jour
    • Magazine
      • articles
      • Point de vue
      • Image du passé
      • Où suis-je ?
      • Défense et sécurité
      • Battement du cœur de l’Afrique
      • L’Afrique aujourd’hui
      • Perspective africaine
      • Outillage de la profession
      • Force future
      • Maintien de la paix
      • Se donner la main
    • Les menaces de la sécurité
    • Sur ADF
      • Pour Nous Contacter
      • Abonnement
    • Contribuer
    • Archives
    • Français
      • English
      • العربية
      • Português
    • Français
      • English
      • العربية
      • Português
    Africa Defense Forum
    Home»Actualités du Jour»Du deepfake aux chatbots, les terroristes adoptent l’IA pour répandre leur propagande
    Actualités du Jour

    Du deepfake aux chatbots, les terroristes adoptent l’IA pour répandre leur propagande

    ADFBy ADFseptembre 9, 20255 Mins Read
    Des programmes de presse « deepfake » réalistes et des chatbots interactifs sont deux méthodes basées sur l’intelligence artificielle que les groupes terroristes emploient pour recruter de nouveaux membres tout en sapant la confiance dans les médias traditionnels et les institutions de l’État. IMAGO/WESTLIGHT VIA REUTERS CONNECT
    Facebook Twitter LinkedIn Pinterest E-mail Reddit WhatsApp Copy Link

    Des présentateurs de journal à l’aspect réaliste qui expriment une propagande, des personnages de télévision populaires qui chantent des hymnes de bataille terroristes, des chatbots en ligne qui personnalisent leurs réponses en fonction des intérêts de l’usager : ce sont tous des moyens par lesquels les groupes terroristes utilisent l’intelligence artificielle (IA) pour propager leurs messages et pour recruter.

    À mesure que les technologies de l’IA se répandent sur l’Internet, elles deviennent des outils qu’utilisent les groupes terroristes tels que l’État islamique (Daech) et Al-Qaïda pour communiquer avec les jeunes d’Afrique et d’ailleurs, qui sont internautes depuis leur enfance et qui obtiennent leurs informations sur les réseaux sociaux.

    La dissimulation de la propagande terroriste dans un contenu qui semble authentique aide à contourner les modérateurs des réseaux sociaux pour transmettre des messages, selon Daniel Siegel, chercheur sur la propagande numérisée à l’École des affaires internationales et publiques de l’université Columbia.

    « En intégrant des récits extrémistes au sein d’un contenu qui imite le ton et le style des divertissements populaires, ces vidéos contournent l’examen habituel de ce type de message, en rendant l’idéologie plus accessible et attrayante pour une audience plus vaste », écrit M. Siegel dans son analyse pour le Global Network on Extremism and Technology.

    Bien que le contenu soit souvent conçu pour être drôle, il exploite également l’affection des spectateurs pour les caractères afin de les inciter à visualiser plus de contenu sans réaliser qu’ils sont endoctrinés, écrit-il.

    Le « deepfake » (messages produits par l’IA qui semblent vrais) rend presque impossible la distinction entre les faits et la fiction, selon les experts. Ceci sape la confiance dans les organisations médiatiques légitimes aussi bien que dans les institutions gouvernementales, selon la chercheuse Lidia Bernd.

    Elle a écrit récemment dans la Georgetown Security Studies Review : « Imaginez une vidéo deepfake qui montre un chef politique déclarant la guerre ou un personnage religieux faisant appel à la violence. Le potentiel de chaos et de violence incité par un tel contenu est énorme. »

    Les groupes terroristes utilisent déjà l’IA pour créer un faux contenu hyperréaliste tel que des scènes d’enfants blessés ou des attaques inventées, conçues pour attiser les émotions des spectateurs.

    En dissimulant les vrais propagandistes humains derrière la technologie du deepfake, l’IA sape l’efficacité des outils de reconnaissance faciale et limite les efforts de contre-terrorisme, a récemment écrit l’analyste Soumya Awasthi pour l’Observer Research Foundation.

    Au moins un groupe affilié à Al-Qaïda offre des ateliers sur l’emploi de l’IA pour développer la propagande visuelle et un manuel pour utiliser les chatbots afin de radicaliser les recrues potentielles. Les chatbots et autre technologie IA peuvent aussi produire un code informatique pour les cyberattaques, planifier les attaques physiques et collecter des fonds grâce à la cryptomonnaie.

    Les groupes terroristes utilisent l’IA pour produire rapidement un contenu de propagande en utilisant des clips vidéo filmés par les drones sur le champ de bataille. Ces vidéos d’infox peuvent imiter l’aspect des opérations de presse légitimes telles qu’Al Jazeera ou CNN. Les présentateurs produits par l’IA peuvent être personnalisés pour ressembler à des gens des régions géographiques ou des groupes ethniques que les terroristes ciblent à des fins de recrutement.

    Daech emploie un tel contenu IA dans le cadre de ses émissions de propagande « News Harvest » [Récolte d’actualité]. La technologie IA de synthèse vocale transforme les scénarios écrits en audio quasi-humaine.

    Les experts en matière de contre-terrorisme déclarent que les gouvernements et les sociétés de réseaux sociaux doivent faire plus pour déceler le contenu produit par l’IA tel que celui créé par Daech et Al-Qaïda.

    Pour les sociétés de réseaux sociaux, cela pourrait signifier le renforcement des renseignements de source ouverte afin de suivre les tendances du terrorisme. Pour les sociétés IA, cela pourrait signifier d’œuvrer avec les réseaux sociaux et les autorités de l’État afin d’affiner les méthodes de détection et de blocage de l’emploi malveillant de leur technologie.

    L’utilisation de l’IA par les terroristes a des limites. Certains membres des groupes terroristes islamistes protestent contre la représentation des visages humains dans les images produites par l’IA, en forçant certains créateurs à cacher les visages, ce qui réduit l’impact des clips.

    Les terroristes craignent aussi que l’IA ne soit retournée contre eux.

    Des groupes affiliés à Al-Qaïda ont averti leurs membres que les forces de sécurité pourraient utiliser une audio produite par IA pour donner de fausses commandes aux adhérents, ou pour semer autrement la confusion et perturber les opérations terroristes.

    Selon HumAngle, un avertissement de ce type a été diffusé en langue arabe par l’intermédiaire de l’appli de messagerie Telegram aux membres d’Ansaru (Avant-garde pour la protection des musulmans en Afrique noire), groupe né d’une scission de Boko Haram et basé au Nigeria.

    Le message dit selon HumAngle : « De nouvelles technologies ont rendu possible la création des voix. Bien qu’elles ne soient toujours pas aussi sophistiquées que les voix naturelles, elles s’améliorent et peuvent être utilisées contre les djihadistes. »

    Al-Qaïda État islamique Nigeria Terrorism
    Share. Facebook Twitter Pinterest LinkedIn Tumblr E-mail Reddit WhatsApp
    Previous ArticleDes soldats maliens, y compris deux généraux, sont arrêtés suite à un complot présumé de coup d’État
    Next Article L’ONU signale que les terroristes et les forces de sécurité maltraitent les enfants au Burkina Faso

    Related Posts

    La colère contre la Chine devient violente dans la capitale angolaise

    septembre 9, 2025

    L’ONU signale que les terroristes et les forces de sécurité maltraitent les enfants au Burkina Faso

    septembre 9, 2025

    Des soldats maliens, y compris deux généraux, sont arrêtés suite à un complot présumé de coup d’État

    septembre 9, 2025
    Laisser une réponse Cancel Reply

    Connecte-toi avec nous
    • Facebook
    • Instagram
    • Linkedin
    • Pinterest 
    • Twitter
    V18N2
    Africa Defense Forum
    Facebook X (Twitter) Instagram Pinterest
    • English (Anglais)
    • Français
    • العربية (Arabe)
    • Português (Portugais)
    © 2025 Africa Defense Forum. All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.

    Privacy Policy