Il futuro da guerra poderia envolver algoritmos avançados de inteligência artificial (IA) com capacidade e autoridade para avaliar situações e atacar inimigos sem o controle dos seres humanos.
Parece o tipo de cenário de filmes de ficção científica como Terminator e The Matrix. Uma tecnologia avançada a ponto de resolver o problema lançando robôs de guerra durante um conflito armado.
Nos filmes, a IA sempre acaba atacando os humanos. Na vida real, a IA poderia ajudar os militares em operações onde o controle humano retardaria a missão. Uma desvantagem óbvia é que o inimigo poderia empregar tecnologia igualmente avançada.
E no final quem atacaria a IA com seus robôs de guerra? Sempre humanos.
Um futuro de robôs de guerra que decidem por si próprios
O Pentágono está a estudar cenários de combate em que a IA seria autorizada a agir por sua própria iniciativa com base em necessidades pré-definidas.
Um desses exercícios ocorreu perto de Seattle em agosto passado.
Várias dezenas de drones militares e robôs de guerra semelhante a tanques eles foram implantados com uma missão simples: encontrar terroristas suspeitos de se esconderem entre diferentes edifícios.
O número de robôs de guerra envolvidos era impossível para um operador humano controlar. Para isso, eles receberam instruções preliminares para localizar e eliminar caças inimigos quando necessário. E então eles partiram.
Testes técnicos de guerra automática
Gerenciado pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA), o exercício de simulação não envolveu armas reais. Em seu lugar, transmissores de rádio usados por drones e robôs para simular interações com entidades hostis.
Os drones e robôs de guerra eram do tamanho de uma mochila grande. Eles foram coordenados por algoritmos de inteligência artificial que elaboraram planos de ataque.
Alguns dos robôs de guerra cercaram os prédios, outros fizeram vigilância. Alguns identificaram o inimigo, outros foram destruídos por explosivos simulados.
Foi apenas um de uma série de exercícios de inteligência artificial realizados para simular a automação em sistemas militares em situações demasiado complexas e rápidas para serem decididas pelos humanos.
O Pentágono quer que robôs de guerra decidam
Um relatório da Wired explica que há um interesse crescente no Pentágono em dar às armas autônomas um certo grau de liberdade na execução de ordens.
Um ser humano ainda tomaria decisões de alto nível, mas a IA poderia adaptar-se à situação no terreno melhor e mais rapidamente do que os humanos.
Outro relatório da Comissão de Segurança Nacional de Inteligência Artificial (NSCAI) recomendou em maio deste ano que os Estados Unidos resistam aos apelos por uma proibição internacional do desenvolvimento de armas autônomas.
Não é uma prática viável. É desumano em forma e substância. Assim como acontece com as armas nucleares, os mesmos algoritmos que os Estados Unidos poderiam empregar para movimentar enxames de drones e robôs de guerra poderiam ser usados por outras forças armadas.
Um apocalipse robótico
“Armas letais autônomas que qualquer terrorista pode obter não são do interesse de nenhuma segurança nacional”, diz professor do MIT Max Tegmark, co-fundador da Instituto Futuro da Vida, uma organização sem fins lucrativos que se opõe a armas autônomas.
Para ele, os robôs de guerra e as armas equipadas com IA deveriam ser “estigmatizados e banidos como armas biológicas”.