As guerras futuras serão mais rápidas e tecnológicas, mas menos humanas do que nunca: bem-vindo à era dos soldados robôs.
Há um lugar perfeito para testar armas avançadas: as Ilhas Wallops, um pequeno pedaço de terra na costa da Virgínia que parece ter saído da caneta de Asimov. Se um barco de pesca tivesse passado por ali há um ano, eles teriam visto meia dúzia de jangadas circulando na área - um olhar mais atento revelaria que as jangadas não tinham ninguém a bordo.
Os barcos usavam um motor capaz de se ajustar de acordo com o contexto e transmitir ações e posições para todos os outros, organizando instantaneamente a frota de acordo com uma estratégia. Até atirando, talvez para defender as tropas estacionadas na costa.
O esforço semi-secreto, parte de um programa da Marinha dos EUA chamado Sea Mob, é uma maneira de deixar claro que as máquinas equipadas com inteligência artificial em breve serão perfeitamente capazes de mover até ataques letais sem nenhuma supervisão humana e desprezando leis de robótica.
Formulado por Isaac Asimov, um dos pais da ficção científica, as três leis da robótica foram publicados pela primeira vez em um conto de 1942. Em seus romances, o escritor russo-americano os menciona com frequência: são princípios rígidos, não devem ser transgredidos, teorizados para tranquilizar a humanidade sobre as boas "intenções" dos robôs.
Quem sabe se Asimov previu que suas 'leis' correriam o risco de desmoronar como está prestes a acontecer.
Morte automática
A ideia de enviar máquinas grandes, mortais e autônomas para a batalha não é nova: Sistemas semelhantes vêm sendo testados há décadas, embora de tipo defensivo, como os que permitem cobertura de mísseis hostis. O desenvolvimento da inteligência artificial permitirá a criação de sistemas ofensivos que não apenas responderão a estímulos, mas decidirão por si mesmos o que fazer, sem intervenção humana.
Um humano leva um quarto de segundo para reagir à visão de algo (imagine o tempo de um goleiro determinando onde se jogar durante um pênalti). As máquinas que criamos já nos superam, pelo menos em velocidade. Este ano, por exemplo, pesquisadores da Universidade Tecnológica de Nanyang, em Cingapura, treinaram uma rede neural para absorver dados de 1.2 milhão de imagens. O computador tentou identificar os sujeitos na foto e levou 90 segundos. 0.000075 segundos por foto.
Por enquanto, ainda há muito o que fazer: nessa velocidade incrível, o sistema só identificou a pessoa da foto em 58% dos casos. Uma taxa de sucesso que seria desastrosa na batalha. No entanto, que as máquinas são capazes de se mover muito mais rápido do que nós é um fato estabelecido e só aumentará. Na próxima década, a nova geração de mísseis viajará no nível suborbital, rápido demais para um homem decidir como combatê-los ou administrar a situação. Rebanhos de drones autônomos atacarão e outros computadores responderão em velocidade supersônica.
"Quando a guerra fica tão rápida, em que momento o ser humano se torna um obstáculo?" ele se pergunta Robert Trabalho, Vice-chefe do Pentágono com Obama e Trump. "Não há como intervirmos, então vamos delegar para as máquinas." Além de Asimov, em suma.
Armas que se fazem
Hoje em dia, todos os aspectos militares veem pesquisas comprometidas em garantir um tipo de guerra mais rápido, mais preciso e menos humano possível.
La marina A American testa um navio de 135 toneladas chamado Sea Hunter, que patrulha os oceanos sem tripulação, em busca de submarinos que um dia serão capazes de abater diretamente. Em um teste, o navio viajou 4000 km do Havaí para a Califórnia sem intervenção humana, fazendo tudo sozinho.
O Exército enquanto isso, desenvolve novos sistemas de "apontar e disparar" para seus tanques e um sistema de mísseis chamado JAGM, Joint Air-to-Ground Missile. O JAGM tem a capacidade de escolher veículos para bater sem intervenção humana. Em março, o Pentágono solicitou fundos ao Congresso para custear 1051 JAGMs a um custo de € 360 milhões.
E a aviação? Os testes estão todos focados no projeto "SkyBorg" (o nome já diz tudo): uma versão não tripulada do F-16 capaz de lutar por conta própria.
Até ontem, os militares que queriam causar uma explosão em um local remoto tinham que decidir como e quando atacar: com um avião? Um míssil? Um barco? Um tanque? Eles então tiveram que direcionar a bomba, mirar, operar um comando.
Drones e sistemas como o Sea Mob estão eliminando completamente os humanos de tais decisões. A única decisão que resta a um comando militar (mas não deve ser tomada antes e nem contra o consentimento de todos) é quando os robôs ficam livres para matar violando as famosas leis de Asimov, talvez começando pelos momentos em que as comunicações de rádio são interrompidas durante uma operação de guerra.
Não é um assunto restrito apenas aos Estados Unidos
Desde os anos 90 Israel iniciou o projeto de um sistema chamado HARPY, que hoje diríamos de inteligência artificial. O drone foi capaz de sobrevoar áreas cobertas por sistemas de radar e atacá-los de forma independente. A empresa então vendeu esse sistema para a China e outros países.


No início dos anos 2000, oInglaterra desenvolveu o míssil Brimstone, capaz de encontrar veículos inimigos no campo de batalha e "determinar" quais atingir.
No ano passado, 2018, o presidente da Rússia Vladimir Putin falou de um drone submarino equipado com armas nucleares, abrindo-se para um cenário em que um dispositivo automático poderia ter em seu equipamento a arma mais mortífera já feita por humanos. E por outro lado o próprio Putin admitiu que a nação capaz de desenvolver a melhor IA "se tornará senhora do mundo".
La China não se entregou a grandes declarações, mas o fato de ser uma vanguarda em inteligência artificial ainda nos faz pensar. Estima-se que se tornará o país líder neste campo nos próximos 10 anos, e em breve poderá explorá-lo militarmente.
A guerra fria tecnológica
O medo de ser ultrapassado por países como China ou Rússia levou os EUA a gastar muito no desenvolvimento de IA: US$ 600 milhões em 2016, US$ 800 milhões em 2017 e mais de US$ 900 este ano. O Pentágono não divulgou detalhes sobre esses esforços, mas é fácil ver nas entrevistas oficiais que os desenvolvimentos na pesquisa de IA resultarão em muitas soluções de tecnologia militar, mesmo que não esteja imediatamente pronto para assumir o comando completamente.
No entanto, isso pode acontecer
O intenso investimento econômico que os EUA estão fazendo para recuperar a certeza da supremacia tecnológica (e, portanto, militar) multiplica os riscos de forçar a mão das máquinas, ou deixá-las forçar. Robert Work diz claramente: "Haverá um momento em que as máquinas 'vai cometer um erro' induzido por nós, porque não pretendemos ter a máquina perfeita, apenas a mais útil no menor tempo possível".
A ideia de que as máquinas podem intervir completamente sozinhas para decidir matar seres humanos violando as leis da robótica de Asimov ainda pertence a um imaginário que a rejeita totalmente: algo próximo a filmes apocalípticos como Exterminador do Futuro. Mas essas não são possibilidades distantes.
Em um planeta de nações cada vez mais competitivas nesse campo, a possibilidade de que máquinas autônomas possam causar danos aos adversários também em termos de vidas humanas é real. Não é bom dizer, menos ainda ouvir, mas é assim.