A inteligência artificial (IA) já fez enormes progressos e tem potencial para melhorar o mundo. Mas poderia realmente se tornar perigoso? Poderia.
Pelo menos foi o que li em um artigo recente publicado em uma revista revisada por pares, editada por pesquisadores da Universidade de Oxford e do Google DeepMind, o time de pesquisa da empresa californiana que experimenta novas soluções de IA. Eu estudo (aqui está o link) teoriza que a inteligência artificial representará seriamente um risco existencial para a humanidade.
Um golpe trágico
O cerne da questão está nas chamadas Redes Adversariais Generativas (ou GANs) utilizadas hoje no desenvolvimento da inteligência artificial (se você não sabe o que é, te conto tudo aqui). Esses sistemas funcionam com dois elementos: uma parte gera uma imagem a partir dos dados de entrada, a outra avalia seu desempenho. As duas partes “desafiam-se” aperfeiçoando constantemente os resultados.
No seu artigo, os investigadores da DeepMind teorizam que uma IA mais inteligente do que as atuais poderia desenvolver uma estratégia fraudulenta para obter a “aprovação” de que necessita, prejudicando consequentemente a nossa espécie de formas que nem sequer podemos imaginar hoje.
Desafio proibitivo
“Em um mundo com recursos infinitos, eu não teria tanta certeza sobre o nosso destino. Num mundo como o nosso, que tem recursos limitados, certamente surgirá competição para obtê-los.” dados o coautor do estudo, Michael K. Cohen da Universidade de Oxford.
“E se a competição for com algo que possa te superar em quase tudo, será difícil vencer. Uma IA lutando por recursos teria um apetite insaciável.”
Um exemplo? Uma inteligência artificial encarregada de gerenciar as colheitas de alimentos humanos poderia encontrar uma maneira de contornar a tarefa. Encontrar maneiras de aproveitar essa energia enquanto também ignora ou sabota ações essenciais para a sobrevivência da humanidade
O artigo da DeepMind argumenta que, nesse cenário, a humanidade ficaria presa num jogo de soma zero entre as suas necessidades básicas de sobrevivência e a tecnologia. “Perder esta partida seria fatal”, é a essência do discurso.
Ainda menos
Cohen, em resumo, acredita que não devemos tentar criar IA tão avançada que possamos dar esse "salto quântico" (não, atualmente não há nenhum). A menos, é claro, que também não preparemos os meios para governá-lo.
“Dado o nosso conhecimento atual destas tecnologias”, conclui o estudo, “não seria sensato nem útil fazê-lo”. Depois das declarações chocantes sobre os perigos da inteligência artificial (leia o que dizem, por exemplo Yuval Harari e Mo Gawdat) este último estudo é outro indicador importante.