Les experts sonnent l’alarme face à la désinformation propulsée par l’IA
PERSONNEL D’ADF
La guerre de l’information est devenue une menace généralisée dans presque tous les conflits violents d’Afrique.
En république démocratique du Congo (RDC), en Éthiopie, en Somalie, au Soudan et dans la région du Sahel, les plateformes des réseaux sociaux ont renforcé les discours haineux et les campagnes de désinformation.
Les experts tels que l’économiste somalien Abdullahi Alim avertissent que les nouvelles technologies, en particulier celles propulsées par l’intelligence artificielle (IA), ont le pouvoir de provoquer beaucoup plus de dévastation et de guerre sur un continent qui a déjà des difficultés avec les fractures ethniques, communautaires et raciales.
Il écrit dans un article du 21 juin pour le magazine Foreign Policy : « Une faible compréhension du numérique, une politique fragile et des systèmes de sécurité en ligne limités font du continent un terrain propice pour les discours haineux et la violence. »
« L’émergence de l’intelligence artificielle antagoniste, avec des algorithmes qui cherchent à contourner les outils de modération du contenu, pourrait déclencher la prochaine guerre sur le continent, et il est triste que les sociétés de réseaux sociaux n’y soient pas préparées. Avec une supervision limitée, ceci pourrait facilement faire basculer certaines communautés, celles qui sont déjà accablées par les tensions, vers le conflit et l’effondrement. »
Alim est le PDG de l’Africa Future Fund, plateforme qui vise à accélérer les initiatives techniques sur le continent. Il considère le chaos de l’Est de la RDC, évoque les antécédents de génocide dans la région et se préoccupe de ce qui pourrait se passer à l’avenir.
« Supposez que [le génocide rwandais] se produise aujourd’hui, dans l’ère de l’algorithme. À quel point le chaos et les assassinats augmenteraient si des images truquées et des deepfakes proliféraient sur les réseaux sociaux plutôt que sur la radio, et radicalisaient le public encore plus ? Rien de cela n’est hors de portée. »
Chukwuemeka Monyei, chercheur IA, avocat et expert de la cybersécurité basé à Abuja (Nigeria), souligne un incident en 2023 au Soudan dans lequel des outils audio gérés par l’IA ont aidé à créer un enregistrement deepfake de l’ancien dictateur Omar el-Beshir qui critiquait soi-disant le général Abdel Fattah al-Burhan, chef des Forces armées soudanaises.
Monyei a déclaré à Voice of America en 2023 : « En réalité, la technologie a avancé plus rapidement que les outils nécessaires pour atténuer ses risques. Ceci n’est pas surprenant, car ce sont des choses dont les experts avaient averti au début de la révolution IA ».
« Nous avons vu cela dans beaucoup d’états où des technologies ont été déployées aux fins d’interférence électorale ou de désinformation, comme nous l’avons constaté pendant la pandémie. »
La guerre civile éthiopienne de 2020 à 2022 offre un autre exemple triste de l’amplification des discours haineux par les réseaux sociaux.
Dans un rapport de 2023, le groupe de défense des droits de l’homme Amnesty International a déclaré que les algorithmes de Facebook « surchargeaient la propagation de la rhétorique haineuse prenant pour cible la communauté tigréenne, alors que les systèmes de modération de contenu de la plateforme manquaient de déceler un tel contenu et d’y répondre correctement. »
Alim déclare que les outils IA antagonistes peuvent aider les colporteurs de la désinformation à évader les systèmes de modération et les autres systèmes de sécurité basés sur le contenu.
« Un programme IA antagoniste pourrait changer quelque peu les images vidéo d’un deepfake ; de cette façon, la vidéo serait toujours reconnaissable aux yeux des humains mais la légère altération (appelée techniquement le bruit) provoquerait une classification erronée de l’algorithme, ce qui permettrait de contourner les outils de modération du contenu. »
Il fait appel aux sociétés de réseaux sociaux pour qu’elles partagent des données qui permettraient à des groupes tiers de surveiller et atténuer les campagnes de désinformation.
« À court terme, les sociétés de technologie devraient investir dans des algorithmes qui peuvent déceler les discours haineux dans les langues locales ; bâtir un réseau plus vaste de modérateurs de contenu et de chercheurs experts ; et prioriser une transparence et une collaboration beaucoup plus fortes qui permettraient à des experts indépendants de conduire des vérifications, concevoir des interventions politiques et, finalement, mesurer les progrès. »
Comments are closed.