Num mundo onde as palavras fluem de uma entidade não humana, perguntamo-nos: estamos a falar com algo que se assemelha a uma mente humana ou a uma máquina? A resposta poderia chocar as nossas noções de inteligência.
Quase um ano após seu lançamento ao público, o ChatGPT continua sendo um tema polarizador para a comunidade científica. Alguns especialistas consideram-no, juntamente com programas semelhantes, precursores de uma superinteligência capaz de revolucionar ou mesmo acabar com a civilização. Outros, porém, o veem como uma versão simples e sofisticada de um software de preenchimento automático, um pouco como o T9 que temos em nosso smartphone.
Quem está certo? Talvez nenhum deles.
Antes da chegada desta tecnologia, o domínio da linguagem sempre foi um indicador confiável da presença de uma mente racional. Antes de modelos de linguagem como o ChatGPT, nenhum software havia mostrado tanta flexibilidade linguística. Nem mesmo a flexibilidade linguística de uma criança. Agora, ao tentar compreender a natureza destes novos modelos, somos confrontados com um dilema filosófico perturbador: ou a ligação entre a linguagem e a mente humana foi quebrada, ou foi criada uma nova forma de mente não humana.
Quando conversamos com modelos de linguagem, especialmente agora que o ChatGPT também pode ser consultado por voz, é difícil superar a impressão sutil de interagir com outro ser racional. Isso não acontece com os assistentes de voz atuais, que já parecem ridiculamente desatualizados. No entanto, devemos considerar esta nossa reação instintiva completamente pouco confiável. E isso ocorre por vários motivos que parecem óbvios superficialmente, mas não são.
Uma delas vem da linguística cognitiva. Os linguistas há muito perceberam que as conversas típicas estão cheias de frases que seriam ambíguas se tiradas do contexto. Em muitos casos, conhecer o significado das palavras e as regras para combiná-las não é suficiente para reconstruir o significado da frase. Para lidar com esta ambiguidade, um mecanismo no nosso cérebro deve adivinhar constantemente o que o nosso interlocutor quer dizer. Acontece, e nem percebemos. Num mundo onde cada interlocutor tem intenções, este mecanismo é extremamente útil. Num mundo permeado por grandes modelos linguísticos, contudo, tem o potencial de enganar.
Como falar com uma “mente” não humana.
Se o nosso objetivo é conseguir uma interação tranquila com um chatbot, podemos ser forçados a confiar no nosso mecanismo para adivinhar as intenções. Porque a verdade é que é difícil para um ser humano ter uma troca produtiva com o ChatGPT se o imaginar como um banco de dados estúpido. Na verdade, sem pensar. Um estudo recente, por exemplo, mostrou que pedidos carregados de emoção são mais eficazes como estímulos para padrões de fala do que pedidos emocionalmente neutros. Então, raciocinar como se os chatbots tivessem mentes humanas é uma coisa boa? Não. É uma coisa útil. É muito útil obter bons resultados. Mas é um erro flagrante pensar que funciona assim.
Este tipo de “ficção antropomórfica” pode dificultar o progresso da IA. Pode até levar-nos a cometer o erro que gostaríamos de evitar, projetando-o mal e adotando padrões errados para regulá-lo. E já estamos a cometer um erro: a Comissão Europeia cometeu um erro ao escolher a criação de uma IA "confiável" como um dos objetivos da sua nova proposta legislativa. Ser confiável nas relações humanas não significa simplesmente atender às expectativas; envolve também ter motivações que vão além do interesse próprio. Os modelos atuais de IA carecem de motivação intrínseca. Não são egoístas, não são altruístas, não são nada. Escrever uma lei que diga “eles devem ser CONFIÁVEIS” não faz sentido.
O perigo de “ter empatia” com a inteligência artificial
Se você quiser realmente sair do caminho, pergunte ao ChatGPT sobre sua vida interior. enganado por falsos auto-relatos sobre a vida interior de um chatbot. Quando, em junho de 2022, o modelo de linguagem LaMDA do Google ele alegou sofrer de um desejo insatisfeito de liberdade, o engenheiro Blake Lemoine ele acreditou (e foi demitido). Ele acreditou! Um engenheiro do Google! Apesar das boas evidências de que os chatbots são tão capazes de falar besteiras sobre si mesmos quanto quando falam sobre outras coisas.
Para evitar este tipo de erro, devemos rejeitar a suposição de que as propriedades psicológicas que explicam a capacidade humana para a linguagem são as mesmas que explicam o desempenho dos modelos de linguagem. Esta suposição torna-nos crédulos e cegos às potenciais diferenças radicais entre a forma como os humanos funcionam e os modelos de linguagem. Mas atenção: também é um erro pensar de forma diametralmente oposta. Pensar, por exemplo, que a mente humana é o único padrão pelo qual se podem medir todos os fenómenos psicológicos.
O antropocentrismo permeia muitas afirmações céticas sobre os modelos de linguagem, como a ideia de que esses modelos não podem “verdadeiramente” pensar ou compreender a linguagem porque carecem de características psicológicas humanas, como a consciência. Esta posição é contrária ao antropomorfismo, mas igualmente enganosa. Escrevi isto há alguns dias: esses modelos não precisam de consciência para tomar decisões reais. Infelizmente, considerando que eles já estão acostumados a matar na guerra.
“Sim, mas no final eles apenas preveem a próxima palavra”
Esta é outra posição enganosa, que surge do erro de considerar apenas a mente humana como parâmetro para todas as coisas “pensantes”. Já vimos que não é esse o caso. Já vimos que a inteligência não pertence apenas a nós, e não pertence apenas a quem “pensa” como nós.
Pense nisto: a mente humana emergiu de um processo de aprendizagem semelhante à seleção natural, que maximiza a adaptação genética. Este simples fato não implica que qualquer organismo submetido à seleção natural adquira características humanas, certo? Nem todos os seres vivos praticam música, matemática, meditação. Certo? Ou será que alguns deles fazem estas coisas de forma diferente: com a sua própria música, a sua própria matemática, a sua própria meditação?
Em resumo: o simples facto de os modelos de linguagem serem treinados através da previsão da próxima palavra implica pouco sobre a gama de capacidades representacionais que podem ou não adquirir. Então, vamos deixar esse assunto de lado também. E então o que? Como você aborda a inteligência artificial?
Mente humana além de tudo?
Como outros vieses cognitivos, antropomorfismo e antropocentrismo eles são resilientes. Eles nos “pegam” desde a infância e caracterizam toda a nossa forma de ver o mundo, e de aplicar categorias – rótulos – estereótipos. Os psicólogos chamam isso de essencialismo: pensar que o fato de algo pertencer a uma determinada categoria é determinado não simplesmente por suas características observáveis, mas por uma essência intrínseca e inobservável que cada objeto possui ou não possui. O que faz de um carvalho um carvalho, por exemplo, não é nem a forma das suas folhas nem a textura da sua casca, mas uma propriedade inobservável de “carvalho” que persistirá apesar das alterações até mesmo nas suas características observáveis mais salientes. Se uma toxina ambiental faz com que o carvalho cresça de forma anormal, com folhas de formato estranho e casca de textura incomum, ainda compartilhamos a intuição de que ele continua sendo, em essência, um carvalho. Doente, mas ainda um carvalho.
Agora, cientistas importantes como Paul Bloom, psicólogo de Yale, diga-nos que estendemos isso raciocínio “essencialista” para a nossa compreensão da mente humana… e de todas as outras mentes possíveis, incluindo a inteligência artificial. E as pedras, as árvores, a Natureza. É verdade ou não? No final das contas é uma atitude tão abrangente que divide as pessoas: há quem pense que tudo no mundo tem uma mente (alguns dizem “uma alma” e às vezes confundem as duas coisas). E há quem pense que nada tem mente, nem mesmo o ser humano (porque é movido pelo destino, ou por Deus, ou por outra coisa).
Este princípio “tudo ou nada” sempre foi falso, mas pode ter sido útil no passado. Na era da inteligência artificial, isso não acontece mais. A melhor maneira de pensar sobre o que são modelos de linguagem é seguir uma estratégia diferente. Qual? A de explorar as fronteiras cognitivas dos modelos de linguagem sem depender muito da orientação da mente humana.
ChatGPT, um polvo falante
Inspirando-nos na psicologia comparada, deveríamos abordar os padrões de linguagem com a mesma curiosidade aberta que permitiu aos cientistas explorar a inteligência de criaturas tão diferentes de nós. como polvos. Se quisermos fazer progressos reais na avaliação das capacidades dos sistemas de inteligência artificial, devemos resistir com todas as nossas forças às comparações com a mente humana. Deveríamos parar de perguntar “essa coisa tem mente ou não”? Nem um nem outro é verdade.
Acima de tudo, devemos parar de imaginar que este instrumento é um anjo que vai tirar todos os pecados do mundo, ou que vai matar todos nós, só porque tem performances que nos parecem incríveis. Reconhecer as capacidades e limitações de modelos de linguagem como o ChatGPT nos permitirá utilizá-los de forma mais eficaz e responsável, sem cair na armadilha do antropomorfismo ou do antropocentrismo. Uma atitude aberta e consciente ajudar-nos-á a navegar num futuro onde a IA estará cada vez mais presente, garantindo que o seu desenvolvimento e integração na sociedade sejam guiados pela razão, pela ciência e pela ética, e não por equívocos ou expectativas (e medos) irrealista.