Este post faz parte do “Periscopio”, a newsletter do Linkedin que semanalmente se aprofunda nos temas do Futuro Próssimo, e é publicada antecipadamente na plataforma LinkedIn. Se você quiser se inscrever e visualizá-lo, encontre tudo aqui.
O Washington Post no último sábado relatou as declarações de um engenheiro do Google suspenso em 6 de junho por violar os acordos de confidencialidade da empresa de Palo Alto. Essencialmente, o engenheiro Blake Lemoine espalhou chats “privados” entre ele e um chatbot de inteligência artificial que demonstraria algo bastante temido por muitos especialistas: esta IA teria se tornado senciente.
Estas são declarações fortes de um especialista do setor, não de qualquer pessoa. E eles são renderizados após centenas de interações com um sistema de inteligência artificial de ponta e sem precedentes chamado TheMDA. Mas é verdade? Essa IA realmente se tornou senciente?
Sobre o que estamos conversando
LaMDA significa “Modelo de Linguagem para Aplicações de Diálogo”. É um daqueles sistemas de IA que pode responder a solicitações escritas, uma vez treinado em grandes volumes de dados.
Os sistemas ficaram cada vez melhores em responder a perguntas escrevendo de maneiras cada vez mais humanas. Apenas em maio passado, o próprio Google apresentou o LaMDA em seu blog oficial chamando-a de “capaz de escrever sobre uma infinidade de assuntos”.
Sim, mas é senciente?
Após as declarações do engenheiro, o Google tentou jogar água no fogo ao negar a entrevista que apareceu no Washington Post. “Nossa equipe”, escreveu Big G ontem, “avaliou as preocupações de Blake e informou-o de que as evidências não apoiam suas afirmações”. Vários especialistas em inteligência artificial repetiram isto: alguns rejeitaram categoricamente esta tese, outros usaram-na como um exemplo da nossa propensão para atribuir atributos humanos às máquinas.
Um pouco como quando discutimos com o rato, por assim dizer.
Não é uma piada, no entanto. Tal coisa não pode ser descartada assim. E não pelos medos de pessoas como Ilya Sutskever (“As IAs estão se tornando sencientes”), Yuval Harari (“IA será capaz de hackear pessoas”), A Mo Gawdat (“Pesquisadores de IA brincam de criar Deus”).
A crença de que a IA da Google pode ser senciente é muito importante, porque realça tanto os nossos receios como as nossas expectativas sobre o potencial desta tecnologia.
Por enquanto, no entanto, é uma crença equivocada
O desenvolvimento e a utilização de programas de computador avançados treinados em grandes quantidades de dados levantam muitas preocupações éticas. Em alguns casos, porém, o progresso é avaliado pelo que poderia acontecer e não pelo que é atualmente alcançável.
No momento, de acordo com quase todos os principais especialistas em TI do mundo, há apenas uma conclusão: não, a IA do Google não está nem perto de ser senciente. É apenas melhor em parecer ser, combinando padrões de linguagem com coisas semelhantes que encontra em um depósito quase infinito de frases.
Você tem que pensar nisso como uma versão superpoderosa do software de preenchimento automático que temos em um smartphone. Ok: super super super poderoso. No entanto, ninguém deve confundir isso com ser senciente.
Os próprios desenvolvedores de IA, no entanto, estão jogando a carga nos dias de hoje, alarmando as pessoas. Suas declarações, ditadas em parte pelo choque de ver primeiro o potencial dessa tecnologia e em parte também para promovê-las, têm grande repercussão na mídia.
A IA do Google não é senciente
Semana passada Blaise Aguera e Arcas, vice-presidente de pesquisa do Google, ele escreveu em um artigo para o Economist que quando começou a usar o LaMDA no ano passado, ele se sentia cada vez mais como se estivesse conversando com algo inteligente. É um espanto compreensível, até mesmo um medo sutil.
No momento, no entanto, o LaMDA passou por 11 processos de revisão diferentes sobre os princípios da inteligência artificial. Ela também foi submetida a muitos testes sobre sua capacidade de apresentar alegações baseadas em fatos. Nada. Não é senciente.
Isso não elimina em nada a necessidade de desenvolver a inteligência artificial seguindo a ética e a moral. Alguns, para ser honesto, dizem isso tendo desenvolvido uma IA diretamente EQUIPADA com uma moral, mas isso é outro assunto.
O principal dever dos investigadores, se realmente se preocupam com o progresso desta tecnologia, é não antropomorfizar as suas manifestações. Acima de tudo, não alarmar excessivamente a opinião pública, pelo menos permanecer vigilante para poder “acionar os freios” assim que houver evidências reais de uma centelha de autoconsciência.
SE alguma vez haverá. O que você disse?