Em Agosto do ano passado, vários drones e robôs militares semelhantes a tanques voaram para os céus e estradas 40 milhas ao sul de Seattle. Sua missão: encontrar terroristas suspeitos de se esconderem entre vários edifícios. Tantos robôs estavam envolvidos na operação que nenhum operador humano poderia ficar de olho em todos eles. Então, eles receberam instruções para encontrar – e eliminar – combatentes inimigos quando necessário.
Tradução, edição e imagens: Thoth3126
O Pentágono avança para deixar robôs armados sob controle da I.A.
A missão foi apenas um exercício militar, organizado pela Agência de Projetos de Pesquisa Avançada de Defesa [DARPA], uma divisão de pesquisa e desenvolvimento de armas do Pentágono; os robôs estavam armados com nada mais letal do que transmissores de rádio projetados para simular interações com robôs aliados e inimigos.
O exercício foi um dos vários conduzidos no verão passado para testar como a inteligência artificial poderia ajudar a expandir o uso da automação em sistemas militares, inclusive em cenários que são muito complexos e rápidos para os humanos tomarem todas as decisões críticas. As demonstrações também refletem uma “mudança sutil” no pensamento do Pentágono sobre armas autônomas, à medida que se torna mais claro que as máquinas podem superar os humanos na análise de situações complexas ou operando em alta velocidade.
O general John Murray, do US Army Futures Command, disse a uma audiência na Academia Militar dos Estados Unidos no mês passado que enxames de robôs forçarão planejadores militares, legisladores e a sociedade a pensar se uma pessoa deve tomar todas as decisões sobre o uso de força letal em novos sistemas autônomos . Murray perguntou: “Está dentro da capacidade de um ser humano escolher quais devem ser engajados” e então tomar 100 decisões individuais? “É mesmo necessário ter um humano no circuito?” ele adicionou.
Outros comentários de comandantes militares sugerem interesse em dar mais agilidade aos sistemas de armas autônomos. Em uma conferência sobre IA na Força Aérea na semana passada, Michael Kanaan, diretor de operações do Acelerador de Inteligência Artificial da Força Aérea no MIT e uma voz de liderança em IA nas forças armadas dos EUA, disse que o pensamento está evoluindo. Ele diz que a IA deve realizar mais identificação e distinção de alvos em potencial, enquanto os humanos tomam decisões de alto nível. “Acho que é para isso que estamos indo”, diz Kanaan.
No mesmo evento, o tenente-general Clinton Hinote , vice-chefe de gabinete para estratégia, integração e requisitos do Pentágono, disse que se uma pessoa pode ser retirada do circuito de um “sistema autônomo letal” é “um dos debates mais interessantes que está chegando, [e] ainda não foi acertado”.
Um relatório deste mês da Comissão de Segurança Nacional de Inteligência Artificial (NSCAI), um grupo consultivo criado pelo Congresso, recomendou, entre outras coisas, que os EUA resistam aos apelos por uma proibição internacional do desenvolvimento de armas autônomas.
Timothy Chung , o gerente do programa DARPA responsável pelo projeto de enxameação, diz que os exercícios do verão passado foram projetados para explorar quando um operador de drone humano deve, e não deve tomar decisões para os sistemas autônomos. Por exemplo, quando confrontado com ataques em várias frentes, o controle humano às vezes pode atrapalhar uma missão, porque as pessoas são incapazes de reagir com rapidez suficiente. “Na verdade, os sistemas podem ter um desempenho melhor sem a intervenção de alguém”, diz Chung.
Os drones e os robôs com rodas, cada um com o tamanho de uma grande mochila, receberam um objetivo geral e, em seguida, utilizaram algoritmos de IA para elaborar um plano para alcançá-lo. Alguns deles cercaram edifícios, enquanto outros realizaram varreduras de vigilância. Alguns foram destruídos por explosivos simulados; alguns foram identificados representando combatentes inimigos e optaram por atacar.
Os Estados Unidos e outras nações usam a autonomia em sistemas de armas há décadas. Alguns mísseis podem, por exemplo, identificar e atacar inimigos de forma autônoma em uma determinada área. Mas os rápidos avanços nos algoritmos de IA mudarão a forma como os militares usam esses sistemas. O código de IA de prateleira capaz de controlar robôs e identificar pontos de referência e alvos, muitas vezes com alta confiabilidade, tornará possível implantar mais sistemas robóticos em uma ampla gama de situações.
Mas, como destacam as demonstrações de drones, o uso mais difundido de IA às vezes tornará mais difícil manter um humano informado. Isso pode ser problemático, porque a tecnologia de IA pode abrigar preconceitos ou se comportar de maneira imprevisível .
Um algoritmo de visão treinado para reconhecer um determinado uniforme pode erroneamente ter como alvo alguém vestindo roupas semelhantes. Chung diz que o projeto do enxame presume que os algoritmos de IA serão aprimorados a um ponto em que possam identificar inimigos com confiabilidade suficiente para serem usados confiavelmente.
O uso de IA em sistemas de armas tornou-se controverso nos últimos anos. O Google enfrentou protestos de funcionários e protestos públicos em 2018 após fornecer tecnologia de IA para a Força Aérea por meio de um projeto conhecido como Maven .
Até certo ponto, o projeto faz parte de uma longa história de autonomia em sistemas de armas, com alguns mísseis já capazes de realizar missões limitadas independentemente do controle humano. Mas também mostra como os avanços recentes na IA tornarão a autonomia mais atraente e inevitável em certas situações. Além do mais, ele destaca a confiança que será depositada em uma tecnologia que ainda pode se comportar de maneira imprevisível.