O advento da inteligência artificial, uma IA hostil e o seu domínio sobre a humanidade têm sido um tema central de debate desde o século passado.
Do livro de EM Forster “The Machine Stops”, datado de 1909 desde a recente série de TV “Westworld” até a saga “O Exterminador do Futuro”, nosso imaginário coletivo já contemplou essa hipótese. E ele acreditava que o advento de uma IA hostil seria uma carnificina.
No entanto, este é um problema que pode permanecer hipotético por mais algum tempo. Cientistas e engenheiros estão seriamente preocupados que esta “ultrapassagem” entre a inteligência humana e a artificial (que deveria dar origem à singularidade tecnológica temida pelos transumanistas) seja o maior erro humano.
As tendências atuais mostram-nos uma verdadeira “corrida armamentista” para obter esta tecnologia, o que daria uma enorme vantagem competitiva. A verdadeira questão é esta, após uma inspeção mais detalhada: como parar esta corrida desenfreada com pouco julgamento? Como permitir o desenvolvimento mais harmonioso de uma IA que respeite a sua própria “ética” e parâmetros de segurança?
O desenvolvimento de inteligência super artificial traz dois desafios para que você não se torne uma IA hostil.
Primeiro desafio: unidade de propósito. Esta IA precisa ter na memória (mente?) os mesmos objetivos da humanidade. Sem ela, a IA poderia destruir “distrativamente” a humanidade, avaliando-a como um enfeite inútil ou um obstáculo a ser removido.
Segundo desafio: mutualidade. É um problema político, é sobre garantir que os benefícios de uma IA não cheguem a uma pequena elite, causando desigualdades sociais assustadoras.
Com o atual modelo de “corrida armamentista”, qualquer desenvolvimento de IA tende a ignorar esses dois desafios para avançar. Isto torna verdadeiramente concreto o perigo do nascimento de uma IA hostil.
Soluções possíveis
São necessárias políticas nacionais que evitem a concorrência desenfreada, reduzam a confusão de empresas e entidades que desenvolvem IA e imponham postos de segurança para quem deseja competir. Menos batalha e mais regras significa menos pressão e mais atenção à segurança.
Sugerir iniciativas práticas para evitar o advento de uma IA hostil é um estudo pelos pesquisadores Wim Naudé e Nicola Dimitri. O quadro atual é descrito com precisão e começa imediatamente com uma negação: curiosamente, já existem poucos concorrentes, e isso não garante segurança.
Grupos e entidades dos EUA, China e Europa são poucos em número devido aos enormes custos de desenvolvimento de uma IA, mas ainda são hipercompetitivos.
Por esse motivo, outras estratégias seriam úteis para os estados-nação
Os Estados têm o dever de “acalmar” a batalha, oferecendo contratos que os vinculem ao maior número possível de assuntos. Mais dinheiro, ainda muito mais para o desenvolvimento da IA, mas sob certas condições de segurança.
Podem também oferecer ajuda a quem queira desenvolver tecnologias de “contenção” para o desenvolvimento de uma IA, assumindo que mesmo a mais inteligente e hostil pode ter fraquezas e não ser completamente invulnerável.
Além disso, a cooperação pode ser incentivada alterando impostos e incentivos em favor daqueles que decidem colaborar.
Bem comum
Além destas soluções (que o estudo explica com maior detalhe) existe uma suprema, que é roubar este campo aos particulares. Tal como acontece com a energia atómica ou outras tecnologias e recursos considerados vantajosos e perigosos para todos, a IA também deve ser considerada um bem comum, e protegida para que não tome caminhos errados.
Ninguém tem certeza de nada no momento. A possível natureza hostil da própria IA é uma questão de debate. Para alguns cientistas, uma “rebelião” da criação contra o criador nunca acontecerá. Para muitos outros haverá uma fusão entre homens e IA, não seremos destruídos, mas melhorados.
Em qualquer caso, o nosso planeta e a humanidade beneficiarão enormemente da IA, e os sinais já são visíveis hoje.