O futuro, cantou Enrico Ruggeri, é uma hipótese. E nesta hipótese existe também uma inteligência artificial capaz não só de vencer o homem no xadrez ou no Go, mas de escrever novelas, compor sinfonias. Fazer descobertas científicas, até sentir emoções. É a miragem da inteligência artificial geral, ou AGI: sistemas com capacidades cognitivas gerais semelhantes e superiores às dos humanos. Um objetivo que parece estar se aproximando graças a modelos linguísticos avançados como GPT-4 e agora também ol. Mas ainda há muitas questões teóricas e práticas a serem resolvidas.
O sonho da AGI
Durante décadas, ointeligência artificial geral (AGI) é El Dorado, a terra prometida dos pesquisadores de inteligência artificial. A ideia de criar uma máquina capaz de igualar e superar as habilidades cognitivas humanas em todos os campos (desde raciocínio abstrato um criatividade, a partir de planejamento um generalização de habilidades) fascina e assusta ao mesmo tempo.
Um sistema AGI seria de facto capaz de resolver de forma autónoma problemas extremamente complexos, como mudança climática, os futuros pandemia, encontrando curas para doenças devastadoras como câncer e l 'Alzheimer. Poderia fazer avançar a ciência e a tecnologia a um ritmo sem precedentes, revolucionando áreas como a exploração espacial, a energia limpa, os transportes e a educação.
Por outro lado, uma inteligência artificial supergeral teria um poder enorme e potencialmente incontrolável se não estivesse devidamente alinhada com os valores humanos. “Coisas terríveis podem acontecer porque usamos indevidamente a IA ou porque perdemos o controle dela”, alerta ele Yoshua Bengio, um dos pais do aprendizado profundo e pioneiro da pesquisa AGI. Cenários apocalípticos que ecoam aqueles imaginados por cientistas do calibre de Stephen Hawking e empreendedores visionários como Elon Musk.
AlphaGo e os limites dos atuais sistemas de IA
Até alguns anos atrás, a AGI parecia uma miragem distante. Os avanços na IA “estreita” foram impressionantes, mas limitados a tarefas específicas. Pense por exemplo em AlphaGo, o sistema de IA desenvolvido por Google DeepMind capaz de vencer os campeões mundiais do jogo de tabuleiro Go. Um resultado histórico, mas que não torna o AlphaGo inteligente no sentido geral: só sabe jogar Go, não pode improvisar como escritor, compositor ou cientista.
Este é o limite dos atuais sistemas de IA, mesmo os mais avançados: eles são “idiotas conhecedores”, extremamente bom em um domínio restrito (seja jogar xadrez, reconhecer imagens ou gerar texto), mas incapaz de transferir essas habilidades para domínios diferentes. Eles não têm essa capacidade de generalizar e abstrato, que é a figura da inteligência humana.
A revolução dos modelos linguísticos
A recente revolução modelos linguísticos como GPT-3 OpenAI, LaMDA por Google, DALL-E (também da OpenAI), Difusão Estável por IA de estabilidade, para citar os mais conhecidos, mudou as cartas na mesa. Ou melhor, mostrou-nos uma representação mais próxima de como seria uma inteligência artificial geral do que pensávamos até recentemente.
A característica que torna esses modelos tão promissores é deles multifuncionalidade: ao contrário dos sistemas de IA “restritos”, são capazes de realizar tarefas muito diferentes, desde a escrita de textos à geração de imagens, da conversa à resolução de problemas, com resultados muitas vezes impressionantes.
Uma multifuncionalidade que de certa forma lembra a de mente humana e fez alguns pesquisadores falarem sobre “inteligência artificial geral já alcançada”. Em particular, o recente anúncio do ol, o mais recente modelo OpenAI, que (em alguns casos, poucos para ser honesto) possui capacidade de raciocínio e aprendizagem muito mais humano do que seus antecessores, reacendeu o debate.
As questões a serem resolvidas em relação à inteligência artificial geral
Como enfatizado François Chollet, cientista da computação e criador da estrutura Keras AI, os atuais grandes modelos de linguagem ainda sofrem de grandes limitações que os tornam "insuficientes para alcançar AGI".
Um dos principais problemas é a generalização: Embora treinados em enormes quantidades de dados (terabytes de texto e imagens), estes sistemas lutam para aplicar o que aprenderam a situações, mesmo que ligeiramente diferentes daquelas em que foram treinados. “Os modelos linguísticos não conseguem realmente adaptar-se à novidade porque não têm a capacidade de recombinar o seu conhecimento rapidamente para se adaptarem a novos contextos”, explica Chollet.
Também ligada à generalização está a noção de “aprendendo com alguns exemplos” (aprendizagem de poucas tentativas), uma das principais características da inteligência humana. Até o momento, os modelos de linguagem exigem uma enorme quantidade de dados e um treinamento dispendioso para “aprender” novas tarefas, enquanto nós, humanos, muitas vezes somos capazes de compreender um conceito a partir de um ou poucos exemplos.
Os caminhos impossíveis para a inteligência artificial geral
Como demonstram alguns experimentos, o “representações internas” que os modelos linguísticos construídos da realidade são muitas vezes superficiais e inconsistentes. Por exemplo, uma equipe de pesquisadores da Harvard treinou um modelo em rotas de táxi na cidade de Nova York, conseguindo fazê-lo prever o destino dado o ponto de partida com grande precisão. Olhando para os “mapas mentais” desenvolvidos pelo sistema, porém, os pesquisadores descobriram que eles eram completamente sem sentido, “com estradas de orientação fisicamente impossível e viadutos que passam por cima de outras estradas”.
Finalmente, ainda falta um mecanismo nos modelos atuais retornos como o presente no cérebro humano, onde a informação flui bidirecionalmente entre as diferentes camadas de neurônios, permitindo que você integre percepção, raciocínio e ação. Embora a informação sensorial suba para construir representações abstratas do mundo, essas mesmas representações podem influenciar a percepção e orientar a aquisição de novas informações relevantes. Uma dinâmica que permite funções-chave como imaginação, planejamento, formulação de hipóteses para testar. Modelos atuais? Eles não têm nada parecido com isso. Uma inteligência artificial geral (AGI) que poderá surgir em algum lugar no futuro próximo? Talvez. Talvez.
Não no momento. Algumas dessas funções agora podem ser obtidas apenas de forma rudimentar, "adicionando externamente" módulos ad hoc chamados "verificadores" aos modelos que avaliam e corrigem a saída. Mas é uma abordagem pouco escalável e longe da eficiência da mente humana.
Inteligência artificial geral, os próximos passos em direção ao objetivo
Apesar destas limitações, o caminho para uma inteligência artificial verdadeiramente geral parece hoje mais claro e praticável. Do ponto de vista teórico, parece não haver obstáculos intransponíveis: “O ser humano e alguns animais são a prova viva de que é possível chegar lá”, sublinha. Melanie Mitchell, professor do Instituto Santa Fé e especialista em AGI. O desafio é mais de engenharia e implementação do que conceitual.
Os investigadores já estão a trabalhar em sistemas de IA de próxima geração que superem as limitações dos atuais e incorporem características-chave da inteligência humana, tais como:
- Modelos do mundo mais sofisticado, coerente e adaptável para apoiar raciocínio, planejamento e generalização de alto nível. Representações semelhantes às nossas “simulações mentais” com as quais imaginamos cenários hipotéticos para tomar decisões.
- Feedback interno que permitem um fluxo de informações bidirecional e recursivo, em que representações abstratas podem orientar a aquisição de novos dados relevantes e a formulação de experimentos para validar hipóteses.
- Maggiore eficiência na aprendizagem, desenvolvendo a capacidade de selecionar ativamente quais informações “provar” para refinar os próprios modelos, em vez de depender de uma massa indiscriminada de dados. Um pouco como uma criança que explora ativamente o seu ambiente em busca de estímulos interessantes.
- Uma forma de “metamemória”, isto é, a consciência do que é conhecido e do que não é conhecido, para orientar a exploração e aquisição direcionada de novos conhecimentos.
- Instalações separadas para memória de curto e longo prazo armazenar, relembrar e recombinar rapidamente conhecimentos e experiências anteriores, como acontece nos sistemas de memória biológica.
- Alguma forma de consciência e automodelo, para orientar comportamentos direcionados a objetivos e interações eficazes com o meio ambiente e com outros agentes, artificiais ou humanos.
Progressos interessantes estão sendo feitos em muitos desses pontos
Yoshua Bengio está, por exemplo, trabalhando em novas arquiteturas de redes neurais, que ele chama “redes de fluxo generativo”, capaz de aprender simultaneamente a construir modelos do mundo e os módulos para utilizá-los no raciocínio e no planejamento. Uma abordagem que em alguns aspectos se assemelha ao funcionamento do cérebro humano.
Outros pesquisadores, como Jeff Hawkins da Numenta, estão tentando implementar os princípios da memória biológica em sistemas de IA, com estruturas separadas para memória de curto e longo prazo e processos de consolidação e recuperação de informações. A hipótese é que pode ajudar nos desafios de generalização e raciocínio abstrato.
Depois há aqueles, como o neurocientista teórico Karl Friston da University College London, propõe que a chave para abordar a AGI é construir sistemas que não simplesmente "ingiram" dados de treinamento passivamente, mas decidam ativamente quanto e quais informações amostrar para atingir seus objetivos. Um princípio semelhante à “amostragem ativa” em seres vivos.
Os desafios éticos e de segurança de uma AGI
Se a construção de inteligência artificial geral for teoricamente possível, isso não significa que esteja isento de riscos ou problemas críticos. Conforme mencionado, uma superinteligência fora de controle ou não alinhada com os valores humanos pode representar uma ameaça existencial à nossa espécie. Sem falar nos possíveis impactos na economia, no trabalho, nas desigualdades, na privacidade, na manipulação de informações.
Por esta razão, pesquisadores como Stuart Russell da Universidade de Berkeley sublinham a importância de desenvolver técnicas desde o início “alinhamento de valores” (alinhamento de valores) para garantir que os sistemas AGI tenham objetivos e comportamentos compatíveis com a ética e o bem-estar humano.
Abordagens promissoras nesse sentido são aquelas que visam trazer à tona comportamentos e valores éticos da dinâmica de aprendizagem do próprio sistema, sem impô-los de fora. Uma proposta interessante é a de“Aprendizagem colaborativa por reforço inverso” (CIRCULO). Com o CIRL, o agente de IA é recompensado por atender às preferências humanas, mas essas próprias preferências são parcialmente inferidas do comportamento do agente e refinadas ao longo do tempo.
Outros pesquisadores acreditam que é essencial que o desenvolvimento do AGI ocorra de forma gradual. Vou reformular: “em camadas”, com níveis crescentes de autonomia e habilidade, para que possamos testar e validar a segurança do sistema em todas as etapas. Um pouco como o que acontece no desenvolvimento do cérebro humano, que passa por fases de crescente sofisticação desde as habilidades motoras e perceptivas básicas até a linguagem e habilidades cognitivas superiores.
E depois há obviamente a questão de reguladora e governo: Quem e como deve controlar o desenvolvimento de tecnologias poderosas como a AGI? Apenas empresas e laboratórios privados ou também governos e organizações internacionais? Muitos estão cépticos quanto à capacidade dos actuais quadros regulamentares e institucionais de acompanharem o ritmo e apelam a uma “governação global” da IA, mas os contornos desta governação futurista ainda estão por definir.
Inteligência artificial geral, um futuro fascinante e incerto
Puxando os cordelinhos, quão perto estamos do objectivo de uma inteligência artificial geral comparável ou superior à inteligência humana? É difícil dizer com certeza, as estimativas dos especialistas variam por alguns anos a várias décadas. O que é certo é que o progresso dos últimos anos tornou a AGI um objectivo muito mais tangível e deu uma aceleração impressionante ao campo.
O caminho está cheio de obstáculos, mas o objetivo nunca pareceu tão ao nosso alcance. E se um dia, esperemos que não muito longe, uma inteligência artificial for capaz de nos fazer perguntas, testar hipóteses, aprender com a experiência e até sentir emoções... então saberemos que chegámos. E que o mundo, para o bem ou para o mal, nunca mais será o mesmo.