Les forces armées d’Afrique emploient de plus en plus l’intelligence artificielle (IA) à des fins de surveillance et de collecte de renseignement, et pour améliorer leur efficacité opérationnelle dans les zones de conflit.
Mais les analystes déclarent que cette technologie naissante s’accompagne de risques, notamment le manque de contrôle humain des systèmes d’armes létales autonomes (SALA), les cyber vulnérabilités et la possibilité que l’IA prenne des décisions biaisées ou inexactes basées sur la collecte des données, par exemple les informations concernant les cibles des drones. Ceci pourrait conduire à des conséquences imprévues comme des attaques contre les civils.
L’emploi des drones dans les opérations militaires s’accompagne déjà de risques. Au Nigeria, la société de gestion des renseignements et risques de sécurité Beacon Consulting a documenté 18 incidents de frappe accidentelle de drone par l’armée nigériane ayant fait plus de 400 morts parmi les civils au cours des six ou sept dernières années.
Kabir Adamu, directeur général de Beacon, a déclaré à l’occasion d’un récent webinaire du Centre d’études stratégiques de l’Afrique (CESA) : « Il y a une énorme pression exercée sur les forces armées nigérianes pour assurer que ces … incidents ne se répètent pas. L’armée a établi plusieurs unités pour s’assurer de respecter le droit humanitaire international. »
À mesure que la technologie de l’IA et les SALA continuent à évoluer, plusieurs procédures de collecte de données et d’opérations cinétiques pourraient échapper au contrôle humain direct. Une arme complètement autonome peut conduire des opérations sans prise de décision par un humain, selon le Centre pour le contrôle des armes et la non-prolifération.
Le fabricant de drones turc Baykar a récemment mis à l’essai une nouvelle version de son drone populaire TB2, équipée d’une IA de pointe, selon un rapport de février dans The Defense Post. Le nouveau TB2T-AI inclut trois ordinateurs IA perfectionnés pour renforcer sa capacité d’opération autonome. L’IA lui permet d’identifier et de traquer les cibles, de reconnaître les terrains, d’optimiser les routes et de décoller/atterrir automatiquement.
Comme le note l’Union africaine, les systèmes IA pourraient ne pas être entièrement capables d’expliquer leur processus de prise de décision. Il existe aussi des inquiétudes sur la protection générale des droits de l’homme et les questions de sécurité dans un cadre civil ou militaire. Les autres risques incluent les cyber menaces contre les applications IA, par exemple les vidéos, images et fichiers audio artificiels non traçables appelés deepfake.
Ce type de risque devient encore plus problématique lorsque l’IA est perfectionnée, déclare Nate Allen, chercheur du CESA.
Il a dit pendant le webinaire : « L’adoption d’un système IA particulier n’est pas suffisante ; vous devez penser au contexte [dans lequel] vous l’utiliserez. Je pense que ce sera important pour nos partenaires africains. Vous devez penser stratégiquement au niveau opérationnel sur la manière dont elle s’intègre aux autres systèmes. »
Le Dr Allen et d’autres analystes déclarent que les préoccupations concernent ceux qui contrôleraient la technologie et le degré de respect aux lois internationales qui devrait être démontré par les systèmes IA.
On interprète couramment les droits humains internationaux comme exigeant que les utilisateurs de SALA prédisent et limitent les effets de l’emploi de la force, selon le Stockholm International Peace Research Institute (SIPRI). Ces règles ne sont pas clairement formulées mais un grand nombre de pays du monde conviennent que l’emploi de l’IA dans les conflits devrait dépendre du contexte dans lequel les armes sont employées.
La supervision des systèmes IA par les humains est cruciale pour assurer une prise de décision éthique et légale en temps de guerre, selon les analystes tels que Carlos Batallas de l’IE School of Politics, Economics & Global Affairs en Espagne. Le professeur Batallas affirme que les opérateurs humains ne devraient pas simplement approuver sans évaluation toutes les recommandations de l’IA, en particulier dans l’emploi des SALA.
Le professeur Batallas écrit pour le site de diffusion en ligne de l’université : « Les experts mettent l’accent sur le fait que la préservation du jugement humain dans le processus de prise de décision militaire sur l’emploi de la force est cruciale pour réduire les risques humanitaires, faire face aux préoccupations d’éthique et faciliter la conformité au droit humanitaire international. Ce principe est particulièrement menacé par les systèmes d’alarmes létales autonomes, qui sont conçus pour fonctionner sans contrôle humain direct. »
Les chercheurs du SIPRI recommandent que les forces armées utilisent des scénarios d’exercice pour identifier les caractéristiques de conception et les emplois spécifiques des SALA qui sont interdits en vertu du droit international, et qu’elles spécifient des normes et des exigences de comportement des humains dans le développement et l’emploi des SALA. De tels scénarios pourraient aussi identifier les limites à imposer aux SALA, notamment les considérations légales, d’éthique, politiques, sécuritaires et opérationnelles.
Pour exploiter les avantages de l’IA, l’Union africaine (UA) a développé une stratégie pour bâtir les capacités IA, minimiser les risques, stimuler les investissements et encourager la coopération. Cette stratégie vise à :
* Exploiter l’IA pour le bénéfice des peuples, institutions et secteurs privés d’Afrique.
* Affronter les risques liés à l’utilisation de l’IA, en faisant attention aux questions telles que la gouvernance, les droits de l’homme, la paix et la sécurité, et autres.
* Accélérer les capacités des états membres de l’UA en infrastructure, jeux de données, innovation et recherche IA, tout en affinant le talent et les aptitudes liés à l’IA.
* Encourager la coopération et les partenariats régionaux et internationaux pour développer des capacités IA nationales et régionales.
* Encourager les investissements publics et privés dans l’IA aux niveaux nationaux et régionaux.
« Il incombe maintenant aux états membres défenseurs de développer leurs capacités locales, déclare le Dr Adamu. La plupart des états membres ont beaucoup à faire à cet égard. À l’avenir, nous allons constater une plus grande coopération internationale. »