EQUIPA DA ADF
A organização Media Monitoring Africa (MMA), da África do Sul, está a desenvolver uma ferramenta de inteligência artificial concebida para monitorizar as publicações nas redes sociais e assinalar as que são suspeitas de incitar à violência.
Insights into Incitement, abreviado para I3, analisará dados de texto, tais como publicações nas redes sociais, artigos, comentários de partidos políticos e queixas públicas, classificando depois a probabilidade de um comentário individual incitar à violência. Um painel de controlo virtual, disponível ao público, compila os dados num formato pesquisável.
O projecto surge em resposta à violência nas províncias de Kwazulu-Natal e Gauteng, em 2021, depois de o antigo Presidente Jacob Zuma ter sido preso por desacato ao tribunal. Os tumultos e as pilhagens que eclodiram causaram a morte de 300 pessoas e milhões de dólares em danos materiais. Uma investigação subsequente da Comissão Sul-Africana dos Direitos Humanos pôs em evidência a forma como os comentadores nas plataformas das redes sociais instigaram e incitaram à violência.
“Em risco particular estão as minorias, alimentadas pela xenofobia e pela afrofobia, bem como os grupos vulneráveis, incluindo as mulheres,” escreveram os criadores do projecto no seu site.
A Media Monitoring Africa é uma organização sem fins lucrativos que trabalha para combater a desinformação e a informação falsa e promove o jornalismo ético.
Para efeitos da formação I3, o incitamento é definido como uma comunicação escrita que encoraja, glorifica ou apela directamente a actos de violência. Os criadores do I3 estão a treiná-lo utilizando palavras e frases normalmente encontradas em mensagens incitadoras. Essa formação ajuda o software a identificar casos de incitamento nas redes sociais. Classifica-os em vermelho, amarelo ou verde, consoante o seu grau de perigosidade, sendo que o vermelho indica o risco mais elevado.
O I3 expande o trabalho existente da MMA em torno da desinformação e do Real411.org, um site que permite ao público denunciar comunicações digitais prejudiciais.
À medida que ferramentas de IA como o I3 se expandem em África, a ironia é que parte do material potencialmente incitador que a ferramenta I3 identifica poderia ter sido criada por outras ferramentas de IA, como o ChatGPT.
“Os períodos eleitorais e os momentos de crise política serviram de ponto de inflamação para os conteúdos gerados pela IA,” os investigadores da Freedom House escreveram num relatório de 2023 sobre a IA. “As campanhas de desinformação geradas pela IA causam vítimas e difamam desproporcionalmente segmentos da sociedade que já estão sob ameaça,” acrescentaram os pesquisadores. “Em casos extremos, pode galvanizar a violência contra indivíduos ou comunidades inteiras.”
Os especialistas em tecnologia e os defensores da liberdade de expressão continuam a salientar a necessidade de adoptar medidas de protecção para garantir que as ferramentas de IA, como o I3, sejam utilizadas de forma adequada, onde quer que seja.
“As inovações no campo da IA permitiram aos governos levar a cabo uma censura mais precisa e menos detectável, minimizando a reacção do público e reduzindo o custo político para os que estão no poder,” escreveram os pesquisadores da Freedom House.
No LinkedIn, a advogada sul-africana Zinhle Novazi escreveu: “A MMA salienta que o incitamento virtual pode conduzir à violência no mundo real e que esta ferramenta (I3) é essencial para fornecer informações que permitam evitar tais ocorrências.”
Novazi, professora da Universidade de Stellenbosch e especialista em tecnologia e direito, observou que o I3 pode reduzir o tempo necessário para remover ameaças violentas para apenas algumas horas. Considerou esta alteração como “uma melhoria significativa em relação aos processos judiciais tradicionais que podem demorar semanas ou meses.”
Embora o projecto I3 seja louvável pela sua tentativa de melhorar a segurança pública, escreveu no LinkedIn, o projecto suscita preocupações quanto ao potencial impacto na liberdade de expressão e à possibilidade de utilização indevida.
“O desafio consiste em garantir que a ferramenta é utilizada de forma responsável e não infringe as expressões legítimas de opinião ou dissidência,” escreveu Novazi.