PERSONNEL D’ADF
D’étranges vidéos ont commencé à circuler sur les réseaux sociaux du Burkina Faso en janvier. Elles montrent un groupe de diverses personnes qui exhortent les Burkinabés à soutenir la junte militaire.
Une femme dit dans un clip : « Bonjour au peuple africain, et en particulier aux Burkinabés. Je m’appelle Alisha et je suis panafricaniste. Je fais appel à la solidarité du peuple burkinabé et aux habitants du Burkina Faso pour soutenir réellement les autorités de la transition. »
Une deuxième vidéo montre quatre autres personnes avec le même message. Elles sont toutes montrées très raides, les lèvres ne sont pas synchronisées avec la voix. Elles prononcent mal « Burkina Faso » et « Burkinabé ».
Il y a une raison pour ce look inhabituel : aucun des caractères n’est réel.
C’est un type de média synthétique appelé deepfake, une vidéo produite ou modifiée par logiciel qui peut créer des personnages ou des forgeries de personnes réelles. Les utilisateurs peuvent les manipuler pour qu’ils disent quoi que ce soit.
L’emploi de la technologie du deepfake pour propager la désinformation est un problème mondial. En Afrique, son utilisation est en hausse alors que l’accès à l’Internet augmente sur le continent.
Les experts du monde entier ont exprimé leurs craintes que la technologie ne se transforme en outil de désinformation plus performant et sophistiqué. Dans certains pays africains, les acteurs malveillants pourraient employer les technologies deepfake pour semer la méfiance, le chaos et l’instabilité.
« Alors que la puissance de la technologie augmente, la capacité de nuire augmente exponentiellement », déclare Johan Steyn, professeur de la science des données de l’université de Stellenbosch, au magazine Forbes Africa.
« Du point de vue de l’éthique légale et gouvernementale, c’est un problème massif et je ne sais pas comment il va être réglementé. Comment présentez-vous des preuves devant un tribunal si vous ne pouvez pas confirmer qu’une vidéo ou une voix est authentique ? Il n’existe presque pas de moyens de prouver que les deepfakes sont authentiques. »
Les vidéos deepfake que les activistes en faveur de la junte propagent au Burkina Faso sur Facebook, WhatsApp et Twitter ont été créées avec Synthesia, générateur de vidéos qui utilise l’intelligence artificielle, selon VICE News.
Synthesia refuse de révéler l’auteur des vidéos mais déclare qu’elle l’a banni.
L’emploi des deepfakes est en hausse mais beaucoup de gens connaissent mal le concept.
La société de logiciels de sécurité KnowBe4 a récemment interrogé 800 personnes en Afrique du Sud, au Botswana, en Égypte, au Kenya et à Maurice, âgées entre 18 et 54 ans, pour déterminer leur connaissance des deepfakes.
Les résultats montrent que « 51 % des participants ont déclaré qu’ils connaissaient les deepfakes, 28 % ne les connaissaient pas et 21 % n’étaient pas sûrs ou comprenaient mal ce que c’était. »
Près des trois quarts des participants, soit 74 %, ont déclaré qu’ils avaient pensé qu’un e-mail, un message direct ou une vidéo qu’ils avaient reçu était réel avant de découvrir plus tard qu’il était truqué.
Anna Collard, vice-présidente principale de Content Strategy à KnowBe4 Africa, avertit que la technologie deepfake est devenue sophistiquée à tel point que la plupart des gens auraient des difficultés à identifier les forgeries.
« Ces plateformes deepfake [telles que ChatGPT et Stable Diffusion] sont capables de provoquer des troubles civils et sociaux si elles sont utilisées pour propager la mésinformation ou la désinformation dans les campagnes politiques et électorales ; elles restent un élément dangereux de la société numérique moderne », a-t-elle dit au site web sud-africain News 24.
« Ceci est une source d’inquiétude et nécessite davantage de sensibilisation et de compréhension de la part du public et des politiciens. »
Dans un cas notoire au Gabon en 2018, une vidéo soupçonnée d’être deepfake a presque renversé le gouvernement.
Le président Ali Bongo, qui était hors du pays depuis plus de deux mois pour suivre un traitement d’AVC, a prononcé son allocution habituelle du Nouvel An pour aider à calmer les spéculations croissantes sur son état de santé.
Au lieu d’une retransmission en direct, il s’est exprimé dans une vidéo de deux minutes. Il est apparu raide, en clignant rarement les yeux, et il a parlé avec un rythme et une cadence qui étaient très différents de ses discours précédents.
Certains de ses critiques et rivaux politiques ont affirmé que la vidéo était un deepfake, bien que les analystes indépendants aient déclaré qu’elle était probablement authentique.
Une semaine après la diffusion de la vidéo, l’armée du Gabon a entrepris une tentative de coup d’État, la première du pays depuis 1964, en mentionnant la vidéo bizarre comme preuve que quelque chose n’allait pas. La tentative a échoué.
Un journaliste a déclaré au Washington Post au sujet de l’atmosphère d’incertitude dans le pays : « Nous ne savions pas ce qui se passait. Il n’y avait pas beaucoup d’information officielle, et cela était effrayant. »
Les tentatives des plateformes Internet pour limiter la désinformation en Afrique en sont aux premiers stades.
Julie Owono, directrice exécutive de l’organisation de défense des droits numériques Internet Without Borders, a déclaré : « Les plateformes doivent développer des solutions. Plus elles attendent pour affronter ces problèmes, plus les choses iront mal. »
Quelles que soient les contre-mesures, la technologie deepfake continue à évoluer. Ce faisant, son potentiel d’érosion de la crédibilité augmente aussi.
« Nous vivons dans un monde où nous ne pouvons nous fier à presque personne », déclare le professeur Steyn.