Todos vocês conhecem a história do engenheiro do Google que viu sinais de personalidade no mais recente chatbot de IA do Google (e mais tarde ele foi demitido). A opinião unânime dos jornalistas e principalmente dos especialistas? contrário , contrário , contrário e ... contrário.
Por caminhos diferentes, todos parecem ter chegado à mesma conclusão, que se você pensar com cuidado é também uma conclusão de bom senso, além de técnica. Um chatbot, por mais desenvolvido que seja, é uma função. Funções eles não são sencientes. Mas eles podem ser tão evoluídos que enganam as pessoas, ah sim, eles podem. Portanto, a verdadeira questão é: quem os controlará? Eles serão usados de forma transparente? Me siga.
Porque as IAs são “apenas” funções
Vamos retomar nossas enferrujadas noções escolásticas para dizer: uma função é uma regra para transformar um número (ou uma lista de números) em outro número (ou lista de números). Por esta definição, TODOS os sistemas de IA atuais são funções, incluindo o chatbot LaMDA que causou confusão ao custar o emprego do engenheiro.
Claro, essas são funções muito complexas, mas ainda funcionam: o software por trás de um chatbot inclui regras para converter uma mensagem escrita em letras do alfabeto em um número que o software usa como entrada x e depois para converter a saída f(x) de volta em uma mensagem em letras. Qualquer computador atual, inclusive o de seus telefones celulares, realiza essas operações regularmente.
Em vez de falar em círculos sobre o que significa a palavra “senciente” (que ninguém parece ser capaz de definir), poderíamos perguntar-nos como os seres humanos deveriam aprender a aproveitar o poder extraordinário destas funções complexas.
O núcleo: as funções pseudo-aleatórias
Matemáticos e engenheiros vêm descobrindo ou desenvolvendo novas funções há algum tempo. Por exemplo, funções “pseudo-aleatórias”, que geram resultados completamente previsíveis (para qualquer pessoa que conheça a fórmula subjacente), mas que parecem aleatórios para todos os outros.
Durante a fase de “treinamento”, o software chatbot examina grandes quantidades de texto. Imagine descobrir que na metade das vezes a frase “meu cachorro gosta” é seguida de “brincar de buscar” ou “mastigar móveis”. Quando o chatbot treinado é colocado para conversar com um humano, os inputs que ele recebe (as palavras do seu interlocutor) podem sinalizar que é hora de dizer algo sobre um cachorro.
O software em execução usa uma das funções pseudoaleatórias para escolher o que dizer sobre o cachorro: “brincar de buscar” ou “mastigar móveis”.
Quem é o dono dessas fórmulas?
Tradicionalmente, aqueles que desenvolveram um método melhor de simulação de aleatoriedade o publicaram para que outros pudessem criticá-lo e copiá-lo. É por isso que funções desse tipo têm sido muito bem-sucedidas e difundidas: hoje a aleatoriedade simulada é usada em muitas aplicações, incluindo a proteção de transações na Internet. Sem perspectiva de se tornar um bilionário, muitos cientistas descobriram novas funções e as compartilharam - todos progrediram. Era um bom sistema. Tem funcionado por séculos. E agora?
No domínio da inteligência artificial, o progresso na fronteira do conhecimento é agora dominado por algumas empresas privadas. Eles têm acesso a dados e poder computacional suficientes para descobrir e explorar funções extraordinariamente poderosas que ninguém que olha de fora consegue entender.
A encruzilhada
Vamos pegar o LaMDA. É impressionante. Mostra que a inteligência artificial pode oferecer às pessoas novas formas surpreendentes de aceder a todo o conhecimento humano. Com o tempo, talvez, o Google consiga modificar o LaMDA para torná-lo o novo “mecanismo de busca”. Ele nos parecerá um assistente muito mais astuto que os atuais. Ele nos ouvirá, nos compreenderá e muitas vezes até antecipará nossos pensamentos.
Poderá, se desejado, orientar nossas escolhas trazendo bilhões de dólares em receita para as empresas que se beneficiarão com isso.
Ou, nas mãos de grupos desinteressados, melhorarão o acesso ao conhecimento humano, tornando-se talvez a nova Wikipédia (esperançosamente melhor que a anterior).
Como você acha que vai terminar?
Não se deixe enganar pelos recursos, por mais complexos que sejam. Os engenheiros do Google não são os Dr. Frankensteins dos tempos modernos. Eles não estão dando à luz seres sencientes. Eles estão apenas criando a “Nova Coca Cola”, um produto superdifundido e difundido, baseado em um ingrediente secreto e único cuja fórmula só eles conhecem.
Em vez de discutir se um chatbot é “senciente”, deveríamos considerar as consequências a longo prazo de um sistema que se afasta da ciência. Um sistema que passa de um conhecimento que beneficia a todos para outro em que o conhecimento “secreto” transmite poder e lucro a alguns gigantes da tecnologia, que gradualmente se tornam cada vez mais poderosos, até mesmo politicamente. Novos governantes de um mundo menos justo.