Este post faz parte do "Periscopio", o boletim informativo do Linkedin que explora as futuras edições futuras todas as semanas, e é publicado antecipadamente na plataforma LinkedIn. Se você quiser se inscrever e visualizá-lo, encontre tudo aqui.
O Washington Post no último sábado relatou as declarações de um engenheiro do Google suspenso em 6 de junho por violar os acordos de confidencialidade da empresa de Palo Alto. Em essência, o engenheiro, Blake Lemoine, espalhou chats "privados" entre ele e um chatbot de inteligência artificial que demonstraria algo bastante temido por muitos especialistas: essa IA teria se tornado senciente.
Estas são declarações fortes de um especialista do setor, não de qualquer cara. E eles são renderizados após centenas de interações com um sistema de inteligência artificial de ponta e sem precedentes chamado TheMDA. Mas é verdade? Essa IA realmente se tornou senciente?


Sobre o que estamos conversando
LaMDA significa "Modelo de linguagem para aplicações de diálogo". É um daqueles sistemas de IA que podem responder a solicitações escritas uma vez treinados em grandes volumes de dados.
Os sistemas ficaram cada vez melhores em responder a perguntas escrevendo de maneiras cada vez mais humanas. Apenas em maio passado, o próprio Google apresentou o LaMDA em seu blog oficial chamando-o de "capaz de escrever sobre um número infinito de tópicos".
Sim, mas é senciente?
Após as alegações do engenheiro, o Google tentou jogar água no fogo, negando a entrevista que apareceu no Washington Post. "Nossa equipe", escreveu Big G ontem, "examinou as preocupações de Blake e informou-o de que as evidências não apoiam suas alegações". Vários especialistas em inteligência artificial ecoaram isso: alguns rejeitaram profundamente essa tese, outros a usaram como um exemplo de nossa propensão a atribuir atributos humanos a máquinas.
Um pouco como quando brigamos com o mouse, por assim dizer.
Não é uma piada, no entanto. Tal coisa não pode ser descartada assim. E não pelos medos de pessoas como Ilya Sutskever ("As IAs estão se tornando sencientes"), Yuval Harari ("IA será capaz de hackear pessoas"), A Mo Gawdat ("Pesquisadores de IA brincam de criar Deus").
A crença de que a IA do Google pode ser senciente é muito importante, porque destaca nossos medos e nossas expectativas sobre o potencial dessa tecnologia.


Por enquanto, no entanto, é uma crença equivocada
O desenvolvimento e uso de programas de computador avançados e treinados em grandes quantidades de dados levanta muitas preocupações éticas. Em alguns casos, no entanto, o progresso é julgado pelo que poderia acontecer e não pelo que é atualmente viável.
A conclusão no momento, de acordo com quase todos os maiores especialistas em computação do mundo, parece ser apenas uma: não, a IA do Google não está nem perto de ser senciente. Ela é apenas melhor em parecer, combinando padrões de linguagem com coisas semelhantes que ela encontra em um estoque quase infinito de frases.
Você tem que imaginá-lo como uma versão super poderosa do software de preenchimento automático que temos em um smartphone. Ok: super super super poderoso. No entanto, ninguém deve confundir isso com ser senciente.
Os próprios desenvolvedores de IA, no entanto, estão jogando a carga nos dias de hoje, alarmando as pessoas. Suas declarações, ditadas em parte pelo choque de ver primeiro o potencial dessa tecnologia e em parte também para promovê-las, têm grande repercussão na mídia.


A IA do Google não é senciente
Semana passada Blaise Aguera e Arcas, vice-presidente de pesquisa do Google, escreveu em um artigo para o Economist que quando começou a usar o LaMDA no ano passado, sentiu cada vez mais que estava falando com algo inteligente. É um espanto compreensível, até um medo sutil.
No momento, no entanto, o LaMDA passou por 11 processos de revisão diferentes sobre os princípios da inteligência artificial. Ela também foi submetida a muitos testes sobre sua capacidade de apresentar alegações baseadas em fatos. Nada. Não é senciente.
Isso não diminui a necessidade de desenvolver a inteligência artificial seguindo a ética e a moral. Alguém, para dizer a verdade, diz a desenvolveram uma IA diretamente EQUIPADA com uma moralidade, mas isso é outro assunto.
O principal dever dos pesquisadores, se realmente se importam com o progresso dessa tecnologia, não é antropomorfizar suas manifestações. Acima de tudo, não alarme excessivamente o público, se for o caso, mantendo-se vigilante para poder "puxar o freio" assim que houver evidência real de uma centelha de autoconsciência.
SE alguma vez haverá. O que você disse?