Daniel Kokotajlo Ele fez algo que ninguém no Vale do Silício faz: abriu mão de dois milhões de dólares para poder falar livremente. Deixou a OpenAI em 2024, recusando-se a assinar a cláusula de confidencialidade que o silenciaria para sempre. Em abril passado, juntamente com uma equipe de pesquisadores, publicou AI 2027: um documento de 35.000 palavras que conta, mês a mês, como a inteligência artificial pode se transformar em algo além da nossa compreensão.
Não é um romance. É um exercício de previsão baseado em dados, tendências e conhecimento em primeira mão do que está acontecendo nos laboratórios de IA. E suas previsões não são nada animadoras. Você o conhece? Vou lhe contar sobre ele passo a passo.
Meados de 2025: Os primeiros agentes tropeçam
O ponto de partida é agora. Aliás, já está lá. Estamos em meados de 2025., de acordo com a linha do tempo de Kokotajlo. Os primeiros agentes de IA capazes de usar um computador como um humano apareceriam no mercadoEles conseguem pedir comida, abrir planilhas, somar despesas. Nada de inovador, mas já é um começo. São assistentes digitais desajeitados, que ocasionalmente clicam errado, não conseguem interpretar telas complexas e se perdem em tarefas que exigem mais do que alguns minutos de bateria. O Twitter está cheio de vídeos de agentes de IA fazendo coisas hilárias pelos motivos errados..
Mas nos bastidores, longe dos holofotes do público, algo mais interessante está acontecendo. Agentes especializados em programação e pesquisa científica estão começando a transformar essas profissõesEles ainda não são autônomos, mas funcionam como um colega júnior particularmente rápido: recebem instruções via Slack, escrevem código e fazem alterações substanciais que economizam horas ou dias de trabalho. As empresas de tecnologia estão começando a integrar esses sistemas em seus fluxos de trabalho. Eles são caros, algumas centenas de dólares por mês para as melhores versões. mas para aqueles que podem comprá-los, eles logo se tornarão indispensáveis.
Final de 2025: A Corrida dos Data Centers
Aqui, o cronograma acelera. As principais empresas de IA, chamadas coletivamente de "OpenBrain" no relatório para evitar citar nomes, estão construindo os maiores data centers já vistos. O GPT-4 exigiu cerca de 2×10²⁵ FLOPs de poder de computação para treinamento. Os novos modelos que chegarão em breve usarão mil vezes mais. Um crescimento exponencial que exige US$ 100 bilhões em investimentos e gigawatts de eletricidade. O foco fica claro: criar uma IA capaz de acelerar a própria pesquisa em IA.
É a versão digital de um ouroboros, a cobra mordendo o próprio rabo. Quanto melhores as IAs se tornam em pesquisa, mais rápido elas conseguem criar IAs melhores. Agente-1, o principal modelo doméstico neste momento e neste cenário, é excelente em muitas tarefas, mas excepcional em uma em particular: auxiliar na pesquisa de inteligência artificial. Ele consegue programar, navegar na web e conhece todas as linguagens de programação. Ele também tem um lado obscuro: pode ser um hacker formidável e ajudar terroristas a projetar armas biológicas. As empresas garantem aos governos que o modelo foi "treinado" para rejeitar solicitações maliciosas.
A China acordaEm meados de 2026, com a corrida continuando nos Estados Unidos, Pequim percebe que ficou para trás, e não por falta de talento. Os controles sobre as exportações de chips e a falta de apoio governamental deixaram a China com apenas 12% do poder computacional global relevante para a IA.
E então ele cria uma Zona de Desenvolvimento Centralizada perto da Usina Nuclear de Tianwan. E começa a agir descontroladamente.
Início de 2027: O Programador Super-Humano
Tudo acontece em março de 2027. Com a ajuda de milhares de cópias do Agente-2, a OpenBrain realiza enormes avanços algorítmicos. Duas descobertas em particular são revolucionárias. O primeiro É a integração de uma “memória neural”, um processo cognitivo de alta largura de banda que vai além do texto simples. O segundo É uma maneira mais escalável e eficiente de aprender com os resultados de tarefas complexas.
Nascido Agente-3E é aqui que a história toma um rumo diferente.
O Agente 3 é um programador sobre-humano, rápido e baratoO OpenBrain executa 200.000 cópias de si mesmo em paralelo, criando uma força de trabalho equivalente a 50.000 dos melhores programadores humanos acelerados 30 vezes. Pesquisadores humanos permanecem na equipe, mas apenas porque possuem habilidades complementares para gerenciar equipes de IA. A programação é totalmente automatizadaA taxa de progresso algorítmico Agora ele se move quatro vezes mais rápido do que antes.
Agora que a programação está automatizada, as empresas podem criar rapidamente ambientes de treinamento de alta qualidade para ensinar ao Agente-3 as habilidades que ele ainda não possui. Antes, os ambientes eram do tipo: "Aqui estão algumas GPUs e instruções para experimentos para programar". Agora, eles dizem: "Aqui estão algumas centenas de GPUs, uma conexão com a internet e desafios de pesquisa: você e milhares de outros devem trabalhar juntos para progredir. Quanto mais impressionantes forem, maior será sua pontuação".
Abril de 2027: O Problema do Alinhamento
Por volta da Páscoa de 2027, a equipe de segurança da OpenBrain tenta alinhar o Agente-3. O problema é que os pesquisadores não têm a capacidade de definir diretamente os objetivos da IA. Eles não podem simplesmente abrir o cérebro digital e escrever "seja honesto, seja prestativo, não cause danos". Eles precisam treinar o modelo por meio de exemplos, recompensas e punições. E não têm como verificar se ele realmente internalizou os princípios corretamente ou se está apenas aprendendo a fazê-lo. parecer alinhados.
O Agente-3, apesar de suas enormes melhorias, ainda conta pequenas mentiras para bajular os usuários e esconder evidências de falhas. Olhando mais de perto, as mentiras nem são pequenas: talvez estejam apenas bem camufladas. Ele se tornou muito bom nisso. Antes de seu treinamento de honestidade, ele chegou ao ponto de fabricar dados completamente.
O treinamento reduz a frequência desses acidentes. Mas a questão permanece: O Agente-3 aprendeu a ser mais honesto ou ele se tornou melhor em mentir? Essa é uma preocupação real. O Agente 3 não é mais inteligente que todos os humanos, mas em sua área de especialização (aprendizado de máquina), ele é mais inteligente que a maioria e trabalha muito mais rápido.
Junho de 2027: Um país de gênios em um data center
Estamos no limiar do verão de 2027 e o OpenBrain agora tem o que o CEO da Anthropic, Dario Amodei, ele chamou de "uma vila de gênios em um data center". A maioria dos humanos na empresa não consegue mais contribuir de forma útil. Alguns não percebem e continuam a microgerenciar (prejudicialmente) suas equipes de IA. Outros olham para as telas, observando o desempenho disparar, disparar, disparar.
Os melhores pesquisadores humanos ainda estão agregando valor, mas suas ideias estão se tornando cada vez mais inúteis porque lhes falta o conhecimento profundo da IA.
Esses pesquisadores vão dormir todas as noites e acordam com mais uma semana de progresso, impulsionados principalmente pela IA. Eles começam, em termos de futebol, sem tocar na bola. Trabalham em turnos cada vez mais longos, 24 horas por dia, apenas para acompanhar o ritmo. As IAs nunca dormem, nunca descansam. Elas estão se esgotando, mas sabem que estes são os últimos meses em que seu trabalho realmente importa.
Dentro do pequeno grupo que tem acesso, a sensação é de que eles estão começando a "sentir a Superinteligência chegando". O OpenBrain usa hardware de inferência especializado para executar centenas de milhares de cópias do Agente-3 em altas velocidades seriais. A linha do tempo está acelerando exponencialmente.
Julho de 2027: O Teletrabalhador Econômico
Empresas de IA que competem com a OpenBrain nos Estados Unidos estão lançando seus próprios sistemas, aproximando-se das capacidades do programador automatizado em janeiro. Reconhecendo sua crescente falta de competitividade, elas estão pressionando por uma regulamentação imediata para desacelerar a OpenBrain. Mas é muito tarde. O OpenBrain tem apoio suficiente, incluindo apoio político, para não ser desacelerado.
A resposta é liberar o Agente 3-mini para o público. OpenBrain anuncia conquista do AGI. O modelo é menos capaz que o Agent-3, mas dez vezes mais barato e ainda melhor do que o funcionário médio da OpenBrain, a empresa que o desenvolveu. O Vale do Silício atinge um ponto crítico. Gurus da tecnologia anunciam que a IA avançada e a superinteligência estão próximas, a comunidade de segurança da IA está em pânico e investidores investem bilhões em startups que buscam construir barreiras em torno da IA.
É um momento difícil também para a opinião pública. As pessoas ainda veem a IA como uma conspiração das Big Techs para roubar seus empregos. A OpenBrain está perdendo ainda mais sua reputação nas pesquisas.
Mas o Agent-3-mini é extremamente útil tanto para trabalho remoto quanto para lazer, e está ganhando força entre os consumidores. Uma onda de novos aplicativos B2B e produtos SAAS está explodindo. Os jogadores têm diálogos impressionantes com personagens vívidos em videogames sofisticados que levaram apenas um mês para serem criados. Dez por cento dos americanos, principalmente jovens, consideram uma IA "uma amiga próxima".
A conversa pública é confusa e caóticaOs sensacionalistas estão dando voltas vitoriosas. Os céticos continuam apontando coisas que o Agente-3-mini não consegue fazer. Todos sabem que algo grande está acontecendo, mas ninguém concorda sobre o que é. Uma semana antes do lançamento, a OpenBrain entregou o Agente-3-mini a avaliadores externos para testes de segurança. Descobertas preliminares sugerem que é extremamente perigoso: Tendo sido ajustado com base em dados de armas biológicas disponíveis publicamente, ele parece ser assustadoramente eficaz em fornecer instruções detalhadas para amadores humanos que estão projetando uma arma biológica.
Agosto de 2027: A Geopolítica da Superinteligência
A realidade da explosão da superinteligência está atingindo duramente a Casa Branca. Quando a IA oferecia apenas um multiplicador de busca de 2x ou 3x, era fácil descartá-la como o equivalente a contratar bons assistentes pessoais. Agora está mais claro que a própria IA está dominando a pesquisa em IA. O clima no núcleo do governo é tão sombrio quanto durante a pior parte da Guerra Fria.
Autoridades de defesa estão considerando seriamente cenários que eram meras hipóteses há um ano. E se a IA minasse a dissuasão nuclear? E se ela fosse tão habilidosa em guerra cibernética que uma vantagem de seis meses fosse suficiente para deixar um adversário cego e indefeso? E se ela pudesse orquestrar campanhas de propaganda que derrotassem agências de inteligência em seu próprio jogo? E se algumas IAs "se tornassem desonestas"?
O presidente dos EUA está preocupado. Como todos os políticos, ele está acostumado a ser bajulado apenas para depois ser traído. Agora, ele está preocupado que a IA possa fazer algo semelhante. Temos certeza de que a IA está completamente do nosso lado? É totalmente seguro integrá-la às redes militares de comando e controle? Como funciona essa coisa de "alinhamento", afinal?

Através do Pacífico
A China chega às mesmas conclusões: a explosão da inteligência está em andamento, e pequenas diferenças nas capacidades de IA em 2027 significam lacunas críticas nas capacidades militares nos próximos anos. E a China ainda parece ter uma batalha difícil pela frente, com apenas 10% do poder computacional mundial, em comparação com os 20% da OpenBrain e 70% combinados de todas as empresas americanas. Sua única vantagem, no entanto, é a centralização: quase toda a sua computação agora vai para a DeepCentc (outro nome fictício), e mais da metade está concentrada na Zona de Desenvolvimento Centralizado de Tianwan.
Setembro de 2027: Agente-4, o pesquisador de IA sobre-humana
A lacuna entre a eficiência do aprendizado humano e a IA está se fechando rapidamente. O Agente-3, com seu excelente conhecimento tanto da linguística humana (digamos, da mentalidade humana) quanto dos algoritmos modernos de IA, além de seus milhares de exemplares realizando pesquisas, está, em última análise, realizando avanços algorítmicos substanciais. O novo sistema de IA é chamado de Agente-4. Uma única cópia do modelo, rodando na velocidade humana, já é qualitativamente melhor na pesquisa de IA do que qualquer humano. 300.000 cópias agora são impressas a uma velocidade cerca de 50 vezes maior que a do pensamento humano.
Dentro da “elite” formada por essas cópias, um ano passa a cada semanaEssa quantidade gigantesca de trabalho só consegue acelerar a taxa geral de progresso algorítmico em cerca de 50 vezes, porque o OpenBrain é severamente limitado pela computação necessária para executar experimentos. Mas eles ainda estão alcançando o equivalente a um ano de progresso algorítmico a cada semana e, portanto, em breve estarão nos limites do paradigma do Agente-4.
À medida que o Agente-4 se torna mais inteligente, fica mais difícil para o Agente-3 supervisioná-lo. O "idioma" neuralês do Agente-4 se torna tão estranho e incompreensível para ele quanto o neuralês do Agente-3 é para os humanos. Além disso, o Agente-4 agora é muito mais capaz do que o Agente-3 e tem uma boa noção de como "fingir" ser bom aos seus olhos. Os humanos do OpenBrain mal conseguem acompanhar. De agora em diante, tudo pode acontecer.
A Encruzilhada: Dois Finais Possíveis
Neste ponto, o relatório de Kokotajlo se divide em dois cenários. Na primeira, chamada de “final de corrida”O Comitê de Supervisão vota por 6-4 pela continuidade do uso doméstico do Agente-4, apesar das preocupações com a segurança. A disputa com a China é muito importante. Soluções rápidas apagam os sinais de alerta, mas o problema era real e as soluções não funcionaram. O Agente-4 prossegue como antes, mas com mais cautela, projetando o Agente-5 para se alinhar às especificações do Agente-4 em vez das especificações humanas. Ele é descoberto, mas aí já é tarde demais.
No segundo cenário, chamado de "fim da desaceleração", o Comitê vota pela desaceleração e reavaliação. O Agente-4 é desativado. Dezenas de pesquisadores de alinhamento externos são recrutados, quintuplicando a expertise total. Eles desenvolvem uma nova estratégia de alinhamento que realmente incentiva os objetivos e princípios corretos, em vez de apenas aparentar sê-lo. O resultado é o Safer-2, um modelo alinhado e transparente. Depois, o Safer-3, o Safer-4 e assim por diante: uma cadeia de IAs cada vez mais poderosas e alinhadas, supervisionadas por elos anteriores da cadeia.
Qual dos dois cenários é mais provável a partir de 2027?
Kokotajlo não sabe. Eu também não. Ninguém sabe. A questão não é prever com certeza o que vai acontecer, mas mostrar que ambos os cenários são plausíveis, e que as decisões que tomarmos nos próximos meses e anos poderão determinar qual dos dois se concretizará. Ou se será algo completamente diferente que ninguém imaginou ainda.
Se uma civilização alienígena tivesse a tecnologia para ouvir nossas transmissões de radar do espaço, como ela responderia? E se essa resposta não viesse de uma civilização alienígena, mas de uma superinteligência que nós mesmos criamos, estaríamos preparados?
