O uso de novas tecnologias em conflitos armados tem levantado sérias preocupações entre especialistas em Direito Internacional Humanitário (DIH). Armas autônomas e ataques cibernéticos representam uma nova fronteira para o DIH, desafiando os princípios de proteção a civis e a responsabilização em tempos de guerra.
Nesta semana (nos dias 17 e 18 de setembro), em cidades do Líbano, foram registradas explosões de pagers e também de walkies talkies pertencentes a integrantes do grupo terrorista Hezbollah, resultando em mortes e milhares de feridos. Até então, não se sabe a autoria do ataque.
Segundo Tarciso Dal Maso, professor e advogado especialista em Direito Internacional, o uso dessas tecnologias cria um cenário de incertezas que coloca em risco os valores éticos e morais que guiam as leis da guerra.
“As armas autônomas, por exemplo, selecionam os alvos e fazem uso da força sem intervenção humana. O grande problema é que, ao ativar a arma, o usuário não sabe exatamente quem será atingido ou onde o ataque ocorrerá”, afirma Dal Maso.
Ataque cibernético
Luanna Lima, coordenadora de cibersegurança, explica que um ataque cibernético é qualquer esforço intencional para roubar, expor, alterar, desabilitar ou destruir dados, aplicativos ou outros ativos por meio de acesso não autorizado a uma rede, sistema de computador ou dispositivo digital.
“Nos cenários de conflitos armados, geralmente os ataques são utilizados para atacar serviços essenciais como redes de energia, sistemas de transporte ou redes de comunicação para prejudicar seriamente a capacidade de funcionamento de um inimigo”.
Lima acrescenta que, em outros casos, os cibercriminosos podem inclusive ter acesso a sites oficiais de governos para compartilhar informações falsas com a população e com os próprios grupos militares.
Direito Internacional
O Direito Internacional Humanitário é um conjunto de normas que regula o uso da força em conflitos armados.
As primeiras convenções, estabelecidas em meados do século 19, visavam limitar os danos da guerra, protegendo pessoas fora dos combates ou que não estejam mais participando diretamente, como civis, prisioneiros de guerra e combatentes feridos, e restringindo o uso de alguns tipos de armamentos, como as armas químicas, biológicas e minas terrestres.
“O DIH surgiu em uma época em que a guerra era admitida e até louvada; hoje não é mais assim. Depois das duas Guerras Mundiais, houve uma reeducação que culminou na proibição da guerra (salvo exceções) em 1945 com a Carta da ONU“, explica Dal Maso.
Apesar dessa evolução, essas normas estão sendo pressionadas pelos avanços tecnológicos. “A evolução tecnológica impacta profundamente o DIH. Hoje, quando se comete crimes de guerra por meios cibernéticos, a dificuldade está em identificar e responsabilizar quem cometeu esses crimes”, afirma o professor.
Normas
O avanço da inteligência artificial está criando uma lacuna regulatória no DIH. Atualmente, não há diretrizes claras que controlem o uso da IA em conflitos armados, o que coloca em risco o cumprimento das normas estabelecidas para proteger civis e evitar o uso excessivo da força.
“A inteligência artificial não é regulada pelo Direito Internacional Humanitário; sabemos que ela está em todos os meios, inclusive nos armamentos, mas ainda falta algo concreto sobre isso”, afirma Dal Maso.
Dal Maso ainda ressalta que os princípios gerais do DIH, como a distinção entre combatentes e civis e o princípio da proporcionalidade são desafiados quando não se é possível identificar um culpado: “Em um caso onde há um membro de uma organização terrorista escondido em um hospital, atacar esse local não se justifica pela necessidade militar. Seria desproporcional destruir o prédio inteiro apenas por conta de um indivíduo”.
Segundo Luanna Lima, a inteligência artificial é, sem dúvida, uma das tecnologias mais disruptivas que estão moldando o futuro dos conflitos armados. Portanto, a especialista chama a atenção na demora da elaboração de uma futura regulação.
“O DIH foi concebido em uma época anterior à era digital e precisa ser adaptado para lidar com estes novos ataques. Iniciativas para desenvolver normas e diretrizes para o uso responsável da IA em armas autônomas ainda estão evoluindo lentamente, se comparado com a utilização da Inteligência Artificial por civis e criminosos do mundo inteiro”.
Por Fernanda Ghazali