No começo, era GPT-3, com seus 175 bilhões de parâmetros. Então eles vieram PaLM, Megatron-Turing, Chinchila e assim por diante, e os parâmetros ultrapassaram o limite de 1000 bilhão. São os LLM, Large Language Model, modelos treinados em imensas quantidades de texto para imitar a linguagem humana. E tornaram-se os protagonistas indiscutíveis da corrida à inteligência artificial. Mas há um problema.
Quanto maiores e mais sofisticados se tornam estes modelos, mais energia consomem. E as melhorias que conseguem parecem seguir apenas um crescimento linear e não exponencial como os custos. É o sinal de que talvez, para alcançar a cobiçada AGI, a inteligência artificial geral capaz de pensar como (ou mais que) seres humanos é necessária uma mudança de paradigma. Que a resposta não está apenas no big data, mas em arquiteturas mais eficientes e “racionais”.
O paradoxo do LLM
Sejamos claros: os grandes modelos de linguagem são uma maravilha da engenhosidade humana. Eles aprenderam a dominar as sutilezas da linguagem com uma maestria incrível. Eles são capazes de escrever artigos, tirar dúvidas, resumir conceitos complexos, traduzir entre dezenas de idiomas e agora até sabem gerar código. Às vezes, acho que não estou exagerando, eles parecem captar o significado profundo das letras e têm uma compreensão quase humana do mundo.
Já. Quase.
Mas quanto mais os colocamos sob stress, mais as suas limitações se tornam aparentes: eles são muito bons a reconhecer padrões e a imitar estilos, mas não a pensar de forma independente. Por trás da fachada brilhante do seu desempenho linguístico, não há inteligência real, nem capacidade de inferência e resolução de problemas desconectada dos dados nos quais foram treinados. Nada.
E para obter até mesmo esses resultados parciais, os LLMs exigem quantidades excessivas de energia. Basta dizer que, no nível energético, o treinamento do GPT-3 foi "caro" o equivalente a voar 700 vezes de avião entre Nova York e São Francisco. Um enorme custo ambiental e económico, que cresce exponencialmente a cada salto de escala dos modelos. É como se, para tornar um trabalhador um pouco mais produtivo, tivéssemos que dobrar seu salário todos os meses. Uma dinâmica insustentável no longo prazo.
A faísca não estava lá
Mas não é apenas uma questão de custo-benefício. Há um problema mais profundo que assola os LLMs, que mina as suas ambições de se tornarem a base para a inteligência artificial geral. E é a falta de raciocínio abstrato, de verdadeiro “pensamento” além de analogias superficiais.
Alguns investigadores esperavam que este tipo de capacidade pudesse “emergir” espontaneamente dos LLMs, uma vez alcançados parâmetros e conjuntos de dados suficientemente grandes. A ideia era que quanto mais informação e poder computacional se investisse no modelo, mais ele começaria a desenvolver uma inteligência própria, não apenas emulando a linguagem humana, mas também os processos cognitivos subjacentes.
Até o momento, porém, não há sinais dessa “emergência”. Mesmo os LLMs mais avançados, quando confrontados com tarefas que exigem raciocínio lógico, planejamento e criatividade inovadora, se perdem em conjecturas e alucinações sem sentido. Parece que a inteligência, a verdadeira inteligência, não é apenas uma questão de estatísticas monstruosamente brutais, mas requer diferentes arquitecturas e processos de aprendizagem, ainda em grande parte por descobrir.
Os novos caminhos para a inteligência artificial geral
As dificuldades apresentadas pelos LLMs são a base para que muitos pesquisadores estejam explorando formas alternativas de atingir o objetivo final da AGI. Um deles é o Teoria da Categoria, um ramo da matemática abstrata que estuda as relações entre estruturas algébricas. Algumas startups, como Simbólico, acreditam que pode fornecer o arcabouço teórico para a construção de sistemas de inteligência artificial capazes de desenvolver representações simbólicas do mundo, e não apenas associações estatísticas entre palavras.
Outra tendência promissora é a de IA “orientada para objetivos”, isto é, projetado para atingir objetivos específicos em ambientes tridimensionais complexos, interagindo com objetos e agentes de forma física e também linguística. A ideia é que a inteligência não nasce no vácuo, mas se desenvolve através dele a personificação, ação encarnada no mundo, exatamente como acontece com as crianças. Não surpreendentemente, estima-se que uma criança de 4 anos já processou, por meio da exploração multissensorial do ambiente, aproximadamente 50 vezes os dados do maior LLM atual.
Estas são apenas duas das novas fronteiras que se abrem no campo da inteligência artificial, na tentativa de superar as limitações dos LLMs e realmente se aproximar da AGI. Fronteiras que exigem não só avanços tecnológicos, mas também e sobretudo um repensar profundo sobre o que é a inteligência e como ela pode emergir em sistemas artificiais.
LLM, inteligência (artificial) não mora mais aqui
Vou direto ao ponto. Durante décadas, a inteligência artificial esteve “presa” num paradigma de pura manipulação simbólica, baseado na ideia de que o pensamento é essencialmente processar cadeias de símbolos abstratos de acordo com regras sintáticas. É o paradigma que deu origem aos sistemas especialistas e aos motores de busca semântica e que, em última análise, está na base dos atuais LLMs, embora aprimorado por conjuntos de dados e arquiteturas neurais.
Mas talvez seja precisamente este paradigma “desincorporado” e reducionista que representa o verdadeiro obstáculo à AGI. Talvez a inteligência não seja apenas um algoritmo a ser executado num computador, mas uma propriedade emergente de sistemas complexos que interagem dinamicamente com um ambiente, modificando-o e permitindo-se modificar num ciclo contínuo de percepção, ação e aprendizagem.
Talvez, para criar uma inteligência artificial verdadeiramente geral, devamos inspirar-nos mais na única inteligência geral que conhecemos, isto é, a inteligência biológica, com a sua arquitectura distribuída, a sua plasticidade neural, a sua ancoragem sensório-motora no mundo. E talvez devamos também reconhecer que a inteligência não é uma meta a ser alcançada, mas um processo em constante evolução, que não tem uma forma final pré-definida.
Isso não significa que os LLMs sejam inúteis ou que devam ser jogados fora
Longe disso: representam uma etapa importante na evolução da IA, e ainda têm muitas aplicações práticas a serem exploradas. Mas talvez seja altura de reduzir as expectativas messiânicas que muitos expressaram e de reconhecer os seus limites intrínsecos como candidatos à inteligência artificial geral.
Se algum dia chegar, a AGI provavelmente não será um supercérebro desencarnado balbuciando em 1000 idiomas, mas um agente integrado e corporificado que aprende com o mundo e o transforma, um pouco como nós, humanos, fazemos. E para chegar lá será necessário não só muito mais energia, mas sobretudo muito mais imaginação.
A fronteira do possível
Acho que a questão não é nem chegar lá, chegar ao AGI. A questão é expandir continuamente a fronteira daquilo que a inteligência, humana hoje e artificial amanhã, pode fazer. Significa ultrapassar os limites do que é pensável e possível, através da colaboração híbrida entre nossas mentes biológicas e sintéticas.
Afinal, é isso que sempre fizemos, desde que entalhamos os primeiros símbolos na pedra ou pressionamos as primeiras teclas de um computador. Use tecnologia para fortalecer o nosso intelecto, para multiplicar as nossas capacidades cognitivas e criativas, para enfrentar problemas cada vez mais vastos e complexos.
Os LLMs, com todas as suas limitações, representam um passo em frente neste caminho. Eles mostram-nos quão flexível e poderosa é a linguagem, uma tecnologia em si, que permeia todos os aspectos das nossas vidas. E desafiam-nos a inventar novas, novas gramáticas de pensamento, a expressar o inexprimível e a imaginar o inimaginável.
O verdadeiro objetivo não é criar uma inteligência artificial que nos substitua, mas co-evoluir com ela em simbiose, trazendo à tona formas de inteligência que ainda nem sabemos como conceber.
LLM e o futuro da inteligência
Os LLMs vieram para ficar. Tal como as bicicletas no mundo dos transportes, estão destinadas a dar-nos uma grande ajuda, mas será necessário mais.
Talvez o futuro da inteligência não seja uma singularidade tecnológica, mas uma pluralidade de inteligências interligadas, humanas e não humanas, biológicas e sintéticas. Uma explosão de diversidade cognitiva que nos levará para além dos actuais limites do pensamento, em direcção a novas fronteiras de significado e possibilidade.
Mas para chegar lá, devemos primeiro libertar-nos dos preconceitos e das visões estreitas que ainda nos aprisionam. Devemos parar de perseguir ilusões computacionais que reproduzem as manifestações externas da nossa inteligência de forma desajeitada e parcial, sem apreender a sua essência profunda.
Devemos ter a coragem de repensar radicalmente o que significa ser inteligente num universo em constante mudança. E devemos fazê-lo com curiosidade, abertura, entusiasmo. Com o conhecimento de que a inteligência não é um algoritmo a ser descoberto, mas um processo a ser criado e ampliado, dia após dia, erro após erro, intuição após intuição.
O caminho para a AGI, ou qualquer que seja a inteligência do futuro, não passa (apenas) pelos LLMs. Passa pelas conexões inesperadas que poderemos imaginar, pelos espaços inexplorados que poderemos habitar, pelas perguntas impertinentes que poderemos fazer.
Passa pela nossa capacidade de nos surpreender e de sonhar, de errar e de aprender, de desconstruir e reconstruir a nós mesmos e ao mundo que nos rodeia. Porque a inteligência nada mais é do que isto: a coragem de aventurar-se sempre um pouco mais longe, um pouco mais alto, um pouco mais fundo. Rumo ao próximo limite a quebrar, à próxima fronteira a explorar. Rumo ao desconhecido que nos espera e que talvez, graças à IA, já não nos assuste.