Aqueles Google eles apresentaram algo que, pelo menos de acordo com eles, não é apenas um modelo. É um ingrediente ativo: AlphaEvolve, um sistema capaz de otimizar algoritmos, recursos computacionais, fórmulas matemáticas — e a si mesmo. O nome já diz tudo: ele não apenas executa. Ele evolui.
O objetivo declarado é simples: acelerar o desenvolvimento da inteligência artificial, remover gargalos, encontrar atalhos para problemas que, até ontem, eram considerados... difíceis. Ou impossíveis. Mas o que chama a atenção não é tanto a ambição. É a mecânica.
AlphaEvolve, muitos novos datacenters sem construir nem um
Um dos primeiros resultados atribuídos ao AlphaEvolve é a recuperação da 0,7% do poder de computação global do Google, simplesmente otimizando o gerenciamento interno dos servidores. Na prática, é como se tivessem adicionado data centers inteiros sem despejar um único grama de concreto.
A mesma lógica se aplica aos modelos. O AlphaEvolve melhorou em mais de 30% de aceleração dos kernels FlashAttention, reduziu os tempos de treinamento e tornou possível um tipo de cálculo que ninguém conseguia otimizar há 56 anos: o multiplicação de matrizes.
Problemas de 300 anos, resolvidos em dias
No campo científico, o AlphaEvolve começou a penetrar em territórios onde apenas matemáticos solitários e quadros-negros infinitos haviam se aventurado até então. Resolveu problemas em aberto por três séculos e alcançou o Taxa de sucesso de 75% em 50 problemas matemáticos ainda ativos na comunidade acadêmica. Entre elas, uma nova estimativa do “número do beijo” em 11 dimensões: 593 esferas tangentes.
Não se trata de recordes esportivos. São mudanças na própria estrutura do conhecimento. E não vêm de um grupo de acadêmicos sob pressão. Vêm de um modelo que se aprimora à medida que funciona.

AlphaEvolve inaugura (dessa vez para valer) a fase em que deixamos de entender o que está acontecendo
O AlphaEvolve cria um loop: otimiza um sistema, o que gera um modelo melhor, que por sua vez o torna mais eficiente. Em termos gerais, isso é chamado de autoaperfeiçoamento recursivo. No mundo real, é o início de uma fase (nós a temos já vislumbrado para os chips) onde os modelos se tornam rápidos demais para serem analisados em detalhes.
O progresso não é mais linear. É composto. O Google já fala em uma expansão de um trilhão de vezes no poder de computação até 1. Se os números se mantiverem, isso poderá acelerar a ponto de não deixar rastros.
Uma vantagem estrutural e pouco visível
Enquanto outros trabalham em interfaces, chatbots e assistentes de voz, o Google está expandindo a parte subaquática do iceberg: otimização profunda, sistemas invisíveis, arquiteturas que melhoram outras arquiteturas.
De acordo com os dados apresentados, até 2027 ao longo da 50% dos novos algoritmos serão projetados com suporte de IA, com engenheiros humanos focados não na implementação, mas na formulação de problemas.
Resumindo: os humanos fazem as perguntas, as máquinas ficam ocupadas.
É uma corrida que acontece na base do ecossistema. Mas é aí que o ritmo é decidido. E se o AlphaEvolve funcionar como dizem, o Google poderá ter não apenas uma vantagem. Mas uma alavanca.