Todos vocês conhecem a história do engenheiro do Google que viu sinais de personalidade no mais recente chatbot de IA do Google (e mais tarde ele foi demitido). A opinião unânime dos jornalistas e principalmente dos especialistas? contrário , contrário , contrário e ... contrário.
Por caminhos diferentes, todos parecem ter chegado à mesma conclusão, que se você pensar com cuidado é também uma conclusão de bom senso, além de técnica. Um chatbot, por mais desenvolvido que seja, é uma função. Funções eles não são sencientes. Mas eles podem ser tão evoluídos que enganam as pessoas, ah sim, eles podem. Portanto, a verdadeira questão é: quem os controlará? Eles serão usados de forma transparente? Me siga.

Porque a IA está "apenas" funcionando
Vamos voltar às nossas noções enferrujadas da escola para dizer: uma função é uma regra para transformar um número (ou lista de números) em outro número (ou lista de números). De acordo com essa definição, TODOS os sistemas de IA atuais são funções, incluindo o chatbot LaMDA que provocou o tumulto e custou ao engenheiro sua vaga.
Claro, essas são funções muito complexas, mas ainda funcionam: O software por trás de um chatbot inclui regras para converter uma mensagem escrita em letras em um número que o software usa como entrada x e, em seguida, converter a saída f (x) de volta em uma mensagem com letras. Qualquer computador atual, incluindo o de seus telefones celulares, executa essas tarefas regularmente.
Em vez de falar em círculo completo sobre o significado da palavra "senciente" (que ninguém parece ser capaz de definir), podemos nos perguntar como os humanos devem aprender a aproveitar o poder extraordinário dessas funções complexas.
O núcleo: as funções pseudo-aleatórias
Matemáticos e engenheiros há muito vêm descobrindo ou desenvolvendo novas funções. Por exemplo, as funções "pseudorandom", que geram resultados completamente previsíveis (para quem conhece sua fórmula subjacente), mas que parecem aleatórios para todos os outros.
Durante sua fase de "treinamento", o software chatbot examina grandes quantidades de texto. Imagine descobrir que metade das vezes a frase “meu cachorro gosta” é seguida de “pegar” ou “mastigar móveis”. Quando o chatbot treinado é colocado para conversar com um humano, as entradas que ele recebe (as palavras de seu interlocutor) podem sinalizar que é hora de dizer algo sobre um cachorro.
O software em execução usa uma das funções pseudo-aleatórias para escolher o que dizer sobre o cachorro: "brincar de buscar" ou "mastigar móveis".

Quem é o dono dessas fórmulas?
Tradicionalmente, aqueles que desenvolveram um método melhor de simulação de aleatoriedade o publicaram para que outros pudessem criticá-lo e copiá-lo. É por isso que funções desse tipo têm sido muito bem-sucedidas e difundidas: hoje a aleatoriedade simulada é usada em muitas aplicações, incluindo a proteção de transações na Internet. Sem perspectiva de se tornar um bilionário, muitos cientistas descobriram novas funções e as compartilharam - todos progrediram. Era um bom sistema. Tem funcionado por séculos. E agora?
No campo da inteligência artificial, o progresso na fronteira do conhecimento é agora dominado por algumas empresas privadas. Eles têm acesso a dados e poder de computação suficientes para descobrir e explorar funções extraordinariamente poderosas que ninguém observando de fora pode entender.
A encruzilhada
Vamos pegar o LaMDA. É impressionante. Isso mostra que a inteligência artificial pode oferecer às pessoas novas maneiras incríveis de acessar todo o conhecimento humano. Com o tempo, talvez, o Google poderá modificar o LaMDA para torná-lo o novo "motor de busca". Ele nos parecerá um assistente muito mais inteligente do que os atuais. Ele nos ouvirá, nos entenderá e muitas vezes até antecipará nossos pensamentos.
Poderá, se desejado, orientar nossas escolhas trazendo bilhões de dólares em receita para as empresas que se beneficiarão com isso.
Ou, nas mãos de grupos desinteressados, melhorarão o acesso ao conhecimento humano, talvez tornando-se a nova wikipedia (espero que melhor que a anterior).
Como você acha que vai terminar?
Não se deixe enganar pelas funções, por mais complexas que sejam. Os engenheiros do Google não são os Drs Frankensteins modernos. Eles não estão dando à luz seres sencientes. Eles estão apenas criando a "Nova Coca Cola", um produto super difundido, difundido, baseado em um ingrediente secreto e único do qual só eles conhecem a fórmula.
Em vez de discutir se um chatbot é “consciente”, devemos considerar as consequências a longo prazo de um sistema que se afasta da ciência. Um sistema que passa de um conhecimento que beneficia a todos para um em que um conhecimento "secreto" transmite poder e lucro a alguns gigantes da tecnologia, que gradualmente se tornam cada vez mais poderosos, inclusive politicamente. Novos governantes de um mundo menos justo.