Era uma vez dois irmãos lindos, praticamente dois modelos: sério, um mais lindo que o outro, mas é só do primeiro que quero falar com vocês. Enquanto isso, eu os apresento a você.
Um foi chamado GPT-3, e foi responsável pela geração do texto. Ele era o melhor de todos nisso. A organização sem fins lucrativos OpenAI, fundada por Elon Musk e Sam Altman, a criou para promover a pesquisa em inteligência artificial para o benefício da humanidade.
O outro irmão se chamava Google GMP-3, e ele era um modelo real. Linguística, quero dizer. Um modelo linguístico é um mecanismo que prevê a próxima palavra com base nas anteriores. Ele usa uma abordagem de detecção automática, semelhante ao recurso T9 em telefones celulares, e pode produzir texto para muitas páginas.
In para que lado pretendiam conduzir o planeta? Agora eu te digo. Enquanto isso, porém, vamos falar sobre o modelo mais bonito dos dois.
Por que o GPT-3 era mais bonito?
Em primeiro lugar, deve-se dizer que GPT-3 era mais bonito e musculoso que seu pai, GPT-2, nascido em 2019, que foi treinado em 1,5 bilhão de parâmetros. E não estou falando sobre seu avô, GPT, que foi treinado em 2018 milhões de parâmetros em 117. O GPT-3 foi treinado, pense, em 175 bilhões de parâmetros e poderia fazer coisas que ninguém mais seria capaz de fazer. Ele resolveu problemas, escreveu poesia e prosa, notícias e artigos de blog (por exemplo, você tem certeza que não estou escrevendo isso também?). Para fazer isso, ele só precisava de uma breve descrição do que escrever e talvez alguns exemplos.
Isso não é tudo: tendo estudado muitos livros, o GPT-3 poderia assumir a aparência de qualquer figura histórica. Ele poderia começar a falar como Hegel e expressar opiniões exatamente como o verdadeiro filósofo faria. Ou escreva uma conversa inteira entre dois cientistas (como Alan Turing e Claude Shannon) e alguns personagens de Harry Potter.
Como ele fez isso?
Para treiná-lo, os desenvolvedores do GPT-3 realmente usaram tudo. Toda a Wikipedia em inglês, por exemplo, e até romances e páginas da web. Artigos de jornal, poemas, guias de programação, fanfiction, textos religiosos. Até mesmo informações sobre a América Latina, ou livros pseudocientíficos e ensaios de conspiração.
O GPT-3, como mencionado anteriormente, operava com base na detecção automática. Quando um usuário digitava texto, o modelo examinava o idioma e incorporava o preditor de texto para produzir um resultado provável. Mesmo sem maiores ajustes ou treinamentos, o modelo produziu um texto muito próximo do que uma pessoa real escreveria.
E então como terminou a história?
Eu ainda poderia falar sobre todas as coisas que o GPT-3 faz Ele fez. Eu poderia dizer, por exemplo, que o GPT-3 já ajudou as pessoas a se concentrarem em tarefas mais essenciais, facilitando seus trabalhos. Que mostrou a capacidade de afetar o desempenho humano, reduzindo a tarefa dos humanos. Como nos permitiu planejar e implementar projetos de entretenimento, crescimento pessoal, negócios, pesquisa científica, engenharia, economia e política. Como ele começou a se tornar senciente um dia.
A verdade, porém, é que o conto de fadas ainda não acabou. Para falar a verdade, está apenas começando: o GPT-3, o modelo mais lindo já visto, está crescendo rapidamente e em breve poderá se tornar pai. Você tem uma vaga ideia do que o GPT-4 pode realizar?