As forças armadas africanas estão a utilizar cada vez mais a inteligência artificial (IA) para vigilância, consciência situacional, recolha de informações e para aumentar a eficiência operacional em zonas de conflito.
Mas os analistas dizem que a tecnologia em expansão vem com riscos, incluindo a falta de controlo humano de sistemas de armas autónomas (AWS, na sigla inglesa), vulnerabilidades cibernéticas e o potencial da IA para tomar decisões tendenciosas ou imprecisas com base na recolha de dados, como nas informações sobre alvos de drones. Isso pode levar a consequências não intencionais, como ataques a civis.
A utilização de drones em operações militares já está repleta de riscos. Na Nigéria, a Beacon Consulting, uma empresa de informações de segurança e de gestão de riscos, documentou 18 incidentes de ataques inadvertidos com drones efectuados pelos militares nigerianos que mataram mais de 400 civis nos últimos seis ou sete anos.
“Existe uma enorme pressão sobre as forças armadas nigerianas para garantir que estes … incidentes não se repitam,” Kabir Adamu, director-executivo da Beacon, disse num recente webinar do Centro de Estudos Estratégicos de África (ACSS). “As forças armadas criaram várias unidades para garantir o cumprimento do direito internacional humano.”
À medida que a tecnologia de IA e os AWS continuam a avançar, uma série de procedimentos de recolha de dados e operações cinéticas pode ser retirada do controlo humano directo. Uma arma totalmente autónoma pode conduzir operações sem tomada de decisão humana, de acordo com o Centro de Controlo e Não Proliferação de Armas.
O fabricante turco de drones Baykar testou recentemente uma nova versão do seu popular drone TB2 que está equipado com IA avançada, de acordo com uma reportagem de Fevereiro do The Defense Post. O novo TB2T-AI inclui três computadores de IA avançados que reforçam a sua capacidade de operar de forma autónoma. A IA permite-lhe identificar e seguir alvos, reconhecer terrenos, optimizar rotas e descolar e aterrar automaticamente.
Tal como referido pela União Africana, os sistemas de IA podem ainda não ser totalmente capazes de explicar as suas decisões. Existem também preocupações quanto à protecção global dos direitos humanos e às questões de segurança e protecção em contextos civis e militares. Outros riscos incluem ameaças cibernéticas às aplicações de IA, como vídeos, imagens e ficheiros áudio artificiais não rastreáveis, conhecidos como deepfakes.
Estes tipos de riscos tornam-se mais problemáticos à medida que a IA se torna mais avançada, afirmou Nate Allen, investigador do ACSS.
“Não basta adoptar um determinado sistema de IA; é preciso pensar no contexto [em que] o vamos utilizar,” disse no webinar. “Penso que isso será importante para os nossos parceiros africanos. É preciso pensar estrategicamente a nível operacional sobre a forma como se integra com outros sistemas.”
Allen e outros analistas dizem que há preocupações sobre quem deve controlar a tecnologia e até que ponto os sistemas de IA devem respeitar o direito internacional.
O direito humano internacional é geralmente interpretado como exigindo que os utilizadores dos AWS prevejam e limitem os efeitos do uso da força, de acordo com o Instituto Internacional de Pesquisa para a Paz de Estocolmo (SIPRI). Estas regras não estão claramente definidas, mas muitas nações em todo o mundo concordam que a utilização da IA em conflitos deve depender do contexto em que as armas são utilizadas.
A supervisão humana dos sistemas de IA é fundamental para garantir a tomada de decisões éticas e legais na guerra, de acordo com analistas como Carlos Batallas, da Escola de Política, Economia e Assuntos Globais do IE da Espanha. Batallas defendeu que os operadores humanos não devem simplesmente aprovar todas as recomendações da IA, principalmente na utilização de AWS.
“Os especialistas enfatizam que a preservação do julgamento humano na tomada de decisões militares sobre o uso da força é crucial para reduzir os riscos humanitários, abordar questões éticas e facilitar o cumprimento do Direito Internacional Humanitário,” Batallas escreveu para a publicação online da universidade. “Este princípio é particularmente posto em causa pelos sistemas de armas autónomas, que são concebidos para funcionar sem controlo humano directo.”
Os investigadores do SIPRI recomendaram que as forças armadas utilizem exercícios de cenários para identificar as características de concepção e as utilizações específicas dos AWS que são proibidas pelo direito internacional e especificar as normas e os requisitos comportamentais dos seres humanos no desenvolvimento e na utilização de AWS. Esses exercícios também podem identificar os limites dos AWS, incluindo considerações legais, éticas, políticas, de segurança e operacionais.
Para aproveitar os benefícios da IA, a UA desenvolveu uma estratégia para desenvolver capacidades de IA, minimizar os riscos, estimular o investimento e promover a cooperação. A estratégia tem por objectivo:
* Aproveitar a IA para beneficiar os africanos, as instituições e o sector privado.
* Abordar os riscos associados à utilização da IA, prestando atenção a aspectos como a governação, os direitos humanos, a paz e a segurança e outras questões.
* Acelerar as capacidades dos Estados-membros da UA em matéria de infra-estruturas, conjuntos de dados, inovação e investigação no domínio da IA, aperfeiçoando simultaneamente os talentos e as competências em matéria de IA.
* Fomentar a cooperação e as parcerias regionais e internacionais para desenvolver as capacidades nacionais e regionais da IA.
* Incentivar o investimento público e privado em IA a nível nacional e regional.
“O ónus agora recai sobre o apoio aos Estados-membros para desenvolverem as suas capacidades locais,” disse Adamu. “A maioria dos Estados-membros tem um longo caminho a percorrer nesse domínio. Daqui para a frente, vamos ver mais cooperação internacional.”