No debate sobre como a inteligência artificial (IA) impactará a estratégia militar e a tomada de decisões, uma questão-chave é quem decide melhor – humanos ou máquinas? Defensores de um melhor aproveitamento da inteligência artificial ressaltam a heurística e a falha humana, argumentando que as novas tecnologias podem reduzir o sofrimento de civis por meio da definição de alvos mais precisos e de uma maior conformidade legal. O contra-argumento é que a tomada de decisões impulsionada por IA pode ser tão ruim, se não pior, do que a feita por humanos, e que a margem para erros gera riscos desproporcionais. O que esses debates não levam em conta é a possibilidade de que as máquinas não sejam capazes de replicar todas as dimensões envolvidas na tomada de decisões humana. Além disso, talvez não queiramos que isso aconteça.
Neste artigo, Erica Harper, chefe de pesquisa e política da Academia de Direito Internacional Humanitário e Direitos Humanos de Genebra, expõe as possíveis implicações da tomada de decisões militares impulsionadas por IA e sua relação com o início da guerra, a condução de conflitos e a construção da paz. Ela destaca que, embora o uso da IA possa criar externalidades positivas – inclusive em termos de prevenção e mitigação de danos -, os riscos são altos. Isso inclui o potencial para o surgimento de uma nova era de guerras oportunistas, a dessensibilização massiva em relação à violência e a perda de oportunidades de paz. Esse potencial precisa ser avaliado em termos do atual estado de fragilidade multilateral e levado em conta na formulação de políticas de inteligência artificial nos níveis regional e internacional.
Novas tecnologias estão transformando a natureza da guerra moderna. Um tópico de particular interesse tem sido como a inteligência artificial pode ser usada no desenvolvimento de estratégias militares e na tomada de decisões em combate. Essa discussão tem focado principalmente nos sistemas de armas e nos riscos e desafios inerentes a eles. Uma área menos explorada, embora mais complexa, diz respeito a como o uso da IA na tomada de decisões militares pode modificar ou eliminar funções desempenhadas por seres humanos. A IA pode, por exemplo, oferecer alternativas para superar limitações cognitivas e mitigar a falibilidade humana. Não há dúvidas de que resultados positivos podem ser alcançados, incluindo a redução de danos civis e um melhor cumprimento do Direito Internacional Humanitário (DIH). No entanto, essas possibilidades também geram novos riscos e desafios, especialmente se considerarmos que os conflitos armados são um fenômeno intrinsecamente humano. O uso da inteligência artificial vai alterar de modo substancial a forma como as guerras são iniciadas, conduzidas e concluídas?
Alterando os cálculos de guerra
Um primeiro cenário a considerar é se os sistemas de apoio à decisão impulsionados por IA poderiam afetar a decisão de um Estado de iniciar uma ação militar contra outro país ou um grupo interno. Esse “cálculo de guerra” geralmente leva em consideração tanto normas legais quanto considerações políticas. Um dos princípios mais importantes do Direito Internacional é a proibição contra a ameaça ou uso da força, conforme explicitado no artigo 2(4) da Carta das Nações Unidas – sendo os artigos 51 e 42 exceções à regra justificadas pela necessidade de autodefesa e manutenção ou restauração da paz e segurança internacionais, respectivamente. Fatores externos ao campo legal também influenciam a tomada de decisões, incluindo o potencial de danos à reputação, o sentimento público em relação à guerra, possíveis reações de aliados e não aliados, perdas estimadas, etc.
Os sistemas de inteligência artificial poderiam alterar a forma como esses cálculos são feitos e implementados? Por exemplo, os sistemas de IA poderiam ser aproveitados por potenciais beligerantes para avaliar a probabilidade de um resultado militar bem-sucedido, ou para definir uma estratégia militar que favorecesse um desfecho exitoso?
Pode-se argumentar que isso reduziria a probabilidade de os estados entrarem em guerras “inviáveis”, ou naquelas iniciadas para preservar a honra ou buscar vingança. A invasão do Kuwait pelo Iraque em 1990, por exemplo, foi impulsionada – pelo menos em parte – pela recusa do Kuwait em perdoar a dívida de US$14 bilhões acumulada durante a guerra Irã-Iraque e pela preocupação de Saddam Hussein em relação ao status das ilhas Warbah e Bubiyan (que o Iraque acreditava terem sido indevidamente anexadas durante o protetorado do Reino Unido sobre o Kuwait entre 1899 e 1961). Se os sistemas de apoio à tomada de decisões impulsionados por IA puderem impedir tais conflitos, então os resultados para as populações civis serão, sem dúvida, positivos. No entanto, cenários muito mais distópicos podem ser imaginados. Para estados com aspirações expansionistas ou imperialistas, esse uso da IA seria considerado uma ferramenta poderosa. Na pior das hipóteses, os sistemas de IA podem inaugurar uma nova era para as guerras, na qual sistemas de computador são usados para identificar onde é possível vencer, incentivando a invasão de territórios, a eliminação de grupos opositores e guerras preventivas.
Inteligência artificial e condução das guerras
Uma segunda questão é se os sistemas de IA afetarão a forma como as decisões militares são tomadas em situações de combate. Na medida em que tais sistemas funcionam para distanciar os soldados do campo de batalha, em essência, é possível que a tomada de decisões relacionada a ações letais ocorra com mais facilidade. De fato, a guerra exige que os soldados superem uma aversão evolutiva a matar outros seres humanos. Documentada pela primeira vez na Segunda Guerra Mundial, essa tendência é tão presente que as forças armadas adotam medidas específicas para dessensibilizar os soldados, geralmente por meio do treinamento de simulação, mas também usando narrativas de desumanização e exagerando a ameaça que um grupo inimigo pode representar. Vários dos avanços na tecnologia de drones e sistemas de armas autônomas podem ser vistos como contribuições a esses objetivos. Principalmente por possibilitarem o distanciamento físico dos soldados do campo de batalha, eliminando os piores impactos sensoriais de matar, a exemplo de odores e sons. Recursos como imagens pixelizadas de alvos e gatilhos de toque inteligente/suave são outros exemplos. Embora isso tenha sido menos estudado, na medida em que a IA reduz o ato de tomada de decisão de um soldado, os impactos podem ser ainda mais graves.
Isso não quer dizer que todas as consequências seriam negativas. Os defensores do uso da inteligência artificial na tomada de decisões militares geralmente destacam o fato de que, em relação aos computadores, os humanos são capazes de manter e processar quantidades extremamente limitadas de informação. Eles preveem que inovações como consultores digitais impulsionados por IA poderão armazenar, analisar e interpretar informações em volumes e velocidades que superariam as equipes mais avançadas e experientes de especialistas militares. Do ponto de vista estratégico, qualquer aceleração na tomada de decisão, ação e resposta representa uma clara vantagem operacional. Os benefícios também podem se estender à conformidade legal. Sistemas capazes de combinar uma visão detalhada do campo de batalha com a totalidade das regras, jurisprudência e estudos do DIH permitiriam avaliações de proporcionalidade e decisões de delimitação de alvo mais precisas.
Da guerra à paz – algumas falhas humanas podem ser positivas
Um último cenário a ser considerado diz respeito ao papel da decisão humana em comparação com o suporte à decisão impulsionado pela IA na conclusão das guerras. Embora possa parecer contraintuitivo, a grande maioria dos conflitos não termina devido a uma vitória/derrota militar, mas por meio de uma solução negociada. E se desdobrarmos esses processos, veremos que a centralidade do julgamento, influência e emoção humanas é inimitável. Entre os exemplos estão os papéis desempenhados por Nelson Mandela (África do Sul), Carlos Filipe Ximenes Belo e José Ramos-Horta (Timor-Leste), e os membros que compõem o Quarteto de Diálogo Nacional da Tunísia. O mais provável é que sistemas de IA capazes de respaldar decisões equivalentes às desses líderes sejam uma possibilidade muito distante ou, inclusive, uma impossibilidade.
Conjunturas críticas e eventos imprevistos também podem influenciar na conclusão de uma guerra. O conflito de 30 anos entre a Indonésia e o Movimento Aceh Livre é um exemplo disso. Em maio de 2004, após um ano de lei marcial, as forças armadas indonésias obtiveram uma forte vantagem militar, e muitos analistas acreditavam que o país estava prestes a reivindicar a vitória. Entretanto, em 26 de dezembro de 2004, um terremoto de magnitude 9,1 atingiu a costa da Sumatra, resultando em um tsunami que deixou um quarto da população de Aceh morta. Em vez de usar o desastre para consolidar sua posição, o governo indonésio contrariou as expectativas e permitiu que 195 agências humanitárias internacionais atuassem em Aceh, além de autorizar intervenções de apoio por parte de 16 forças militares estrangeiras e realocar metade de sua força de defesa de 40 mil homens para a realização de tarefas humanitárias. O Movimento Aceh Livre respondeu declarando a cessação imediata das hostilidades e, no prazo de dez meses, foi assinado um acordo de paz com a Indonésia, que concedeu a Aceh um estatuto autônomo especial.
Embora atribuir esses eventos ao tsunami seja uma simplificação excessiva, a enorme perda de vidas, a generosidade dos Estados-membros e a interpretação religiosa compartilhada pelos beligerantes em relação ao desastre resultaram em incentivos poderosos, que todas as partes envolvidas souberam aproveitar. É difícil imaginar como um sistema de apoio à tomada de decisão impulsionado por IA poderia superar os seres humanos em tais circunstâncias. Tal panorama evidencia o quanto a guerra é um processo eminentemente humano, onde talvez não haja lugar para o uso da lógica algorítmica. Se a tomada de decisões militares impulsionadas por IA se tornarem a norma, é possível que oportunidades de paz sejam perdidas.
Algumas considerações finais: por que riscos e oportunidades precisam ser contextualizados
Este artigo considerou o uso da inteligência artificial na tomada de decisões militares e os possíveis impactos na forma como as guerras são iniciadas, conduzidas e solucionadas, especialmente se isso implicar uma redução no papel dos seres humanos na tomada de decisões. Se os riscos apresentados se concretizarão (iniciando uma era mais perigosa e imprevisível de engajamento militar) ou se as oportunidades serão aproveitadas (dando origem a abordagens mais precisas e que limitem danos civis), dependerá, em grande parte, do conceito de sucesso a ser adotado pelas forças armadas. Se o sucesso for entendido como a capacidade de evitar a guerra – ou de alcançar uma maior conformidade com o DIH quando elas ocorrerem -, a utilização da IA na tomada de decisões militares pode gerar resultados positivos. No entanto, se o conceito de sucesso estiver relacionado apenas à maior rapidez na tomada de decisões militares, os riscos serão maiores.
É importante não ver esses cenários de forma binária, nem concebê-los como mutuamente excludentes. O sucesso significará coisas diferentes para Estados diferentes em momentos diferentes. Dito isso, é imperativo engajar-se nas discussões sobre quais podem ser as tendências para o futuro. De fato, se o ritmo acelerado do avanço tecnológico nos ensinou algo, é que o planejamento antecipatório é fundamental na construção do futuro que desejamos. Essas discussões devem colocar o estado atual do sistema multilateral em primeiro plano. Conforme observado pelo secretário-geral da ONU, António Guterres, em seu discurso na Assembleia Geral da ONU em 2023, o mundo parece estar em transição rumo a uma ordem multipolar marcada por um aumento das tensões geopolíticas, do autoritarismo e da impunidade. Muitos acadêmicos antecipam que isso resultará em mudanças nas estruturas de responsabilização existentes e uma “malha fina” do direito internacional. Se essa previsão for correta, o valor normativo do cumprimento do DIH será cada vez mais superado pela busca da mera eficácia militar. Essa perspectiva sugere a necessidade de uma abordagem cautelosa no desenvolvimento de aplicações militares de IA e sua regulamentação, e que o fortalecimento do multilateralismo é fundamental para limitar os riscos oferecidos pelas tecnologias militares digitais.
Veja também:
- Matthias Klaus, Transcending weapon systems: the ethical challenges of AI in military decision support systems, 24 de setembro de 2024
- Jimena Sofía Viveros Álvarez, The risks and inefficacies of AI systems in military targeting support, 4 de setembro de 2024
- Ingvild Bode, Ishmael Bhila, The problem of algorithmic bias in AI-based military decision support systems, 3 de setembro de 2024
- Wen Zhou, Anna Rosalie Greipl, Artificial intelligence in military decision-making: supporting humans, not replacing them, 29 de agosto de 2024