Gênio e loucura muitas vezes compartilham o mesmo espaço na mente humana. No caso de Ilya Sutskever, o cérebro por trás do ChatGPT e cofundador da OpenAI, essa coabitação produziu inovações revolucionárias e visões que beiram o místico. Enquanto completava algoritmos capazes de imitar a fala humana, Sutskever planejou secretamente um bunker para proteger os cientistas do possível "apocalipse" desencadeado pelo lançamento da AGI.
Um paradoxo revelador: os próprios criadores da inteligência artificial mais avançada temem tanto sua criação que estão se preparando para um cataclismo tecnológico. O termo quase religioso que ele usou revela o quão tênues as linhas entre ciência e fé se tornaram no mundo da IA.
A Proposta de Choque: Um Bunker Anti-Apocalipse para Cientistas
Durante uma reunião com um grupo de novos pesquisadores no verão de 2023, Sutskever proferiu uma frase incrível: “Quando estivermos todos no bunker…”. Um pesquisador confuso interrompeu para pedir esclarecimentos sobre o “bunker”, e a resposta foi ainda mais surpreendente: “Definitivamente construiremos um bunker antes de lançar o AGI”. Uma piada, uma hipérbole?
Nada disso. Como relatado por Karen Hao em seu livro "Império da IA: Sonhos e Pesadelos no OpenAI de Sam Altman“O plano teria sido proteger os principais cientistas da OpenAI do caos geopolítico ou da competição violenta entre potências mundiais que Sutskever previu que poderia eclodir após o lançamento da inteligência artificial geral (IAG). O episódio, relatado em um ensaio do livro e publicado no site O Atlantico, destaca os medos existenciais que permeiam os níveis mais altos das empresas de IA.
Com uma indiferença desconcertante, ele então acrescentou: “É claro que será opcional se você quer entrar no bunker ou não.” Como se ele estivesse falando de uma opção de almoço corporativo, não de um refúgio do apocalipse tecnológico.
Bunker do Apocalipse da IA: uma obsessão, não um caso isolado
A referência ao bunker antiapocalíptico não foi um incidente isolado. Duas outras fontes confirmaram ao repórter que Sutskever mencionava regularmente essa estrutura em discussões internas. Um pesquisador da OpenAI chegou a dizer: “Há um grupo de pessoas, entre elas Ilya, que acredita que a construção de uma IA levará a algum tipo de evento apocalíptico. Literalmente, um apocalipse tecnológico.”
Essa visão quase religiosa do futuro tecnológico revela quão profundamente algumas das mentes mais brilhantes da IA são influenciadas por medos existenciais sobre suas próprias criações. Sutskever era conhecido entre os funcionários como "um pensador profundo e até mesmo um tanto místico", que falava regularmente em termos espirituais, de acordo com o livro de Hao.
O Paradoxo da OpenAI: Entre a Catástrofe e o Lucro
Os medos apocalípticos de Sutskever não estavam totalmente fora de lugar no ecossistema OpenAI. Em maio de 2023, o CEO Sam Altman assinou uma carta aberta descrevendo a IA como um risco potencial de extinção para a humanidade, conforme relatado no livro de Karen Hao e em vários artigos da indústria.
No entanto, essa narrativa apocalíptica teve que coexistir com ambições comerciais cada vez mais agressivas. O ChatGPT estava se tornando um fenômeno global, e o OpenAI estava rapidamente se transformando de um laboratório de pesquisa em um gigante de tecnologia multibilionário. Uma contradição que alimentou tensões internas, culminando na tentativa (fracassada) de remover Altman de seu cargo em novembro de 2023.

A Fratura Interna: O Dedo no Botão da AGI
A tensão entre a visão apocalíptica e a capitalista explodiu no final de 2023. Sutskever, juntamente com o então Diretor de Tecnologia Mira Murati, orquestrou um breve golpe corporativo, removendo temporariamente Altman do cargo de CEO.
Por trás dessa decisão estava a preocupação de que Altman estava contornando protocolos de segurança interna e consolidando muito poder. De acordo com notas revisadas por Hao e relatadas exclusivamente em seu livro, Sutskever é citado dizendo: "Não acho que Sam seja a pessoa que deveria ter o dedo no botão da AGI". A documentação destas tensões internas, relatada tanto em O Atlantico de que MIT Technology Review, oferece uma visão nunca vista antes da crise de liderança que abalou a OpenAI.
A metáfora do “dedo no botão” é particularmente reveladora: ela evoca cenários da Guerra Fria, com a AGI no papel de uma arma nuclear. Uma visão que coloca a inteligência artificial não como uma ferramenta para o progresso, mas como uma potencial causa de destruição.
Depois do OpenAI: a missão continua com a superinteligência segura
Após o “golpe” fracassado e a reintegração de Altman, Sutskever deixou a OpenAI em maio de 2024 para fundar Superinteligência Segura (SSI), uma empresa dedicada ao desenvolvimento de sistemas seguros de inteligência artificial.
Ao contrário do OpenAI, o SSI tem um foco muito mais específico: "Nosso primeiro produto será IA segura e não faremos mais nada até lá", disse Sutskever em uma entrevista. A empresa arrecadou inicialmente US$ 1 bilhão e depois outros US$ 2 bilhões, chegando a US$ XNUMX bilhões em XNUMX. TechCrunch uma avaliação de US$ 32 bilhões em abril de 2025, demonstrando que as preocupações com a segurança da IA também ecoam entre os investidores.
O bunker como símbolo: paranoia ou previsão?
O bunker apocalíptico proposto por Sutskever, embora nunca tenha sido construído, tornou-se um símbolo poderoso das contradições e medos que permeiam a indústria da IA. Por um lado, representa uma paranoia quase religiosa; por outro, uma cautela talvez necessária diante de tecnologias potencialmente transformadoras.
Como Eu escrevi para você há 5 anos: “O mundo nunca esteve numa encruzilhada. Pode acabar em guerra e sufocar com venenos, ou renascer com tecnologia e ética.” O bunker de Sutskever representa precisamente esta encruzilhada: o medo do desastre e a esperança de poder evitá-lo. Se considerarmos então o contexto geopolítico cada vez mais tenso, a competição tecnológica entre os Estados Unidos e a China é agora comparada a uma nova guerra fria, com a IA como principal campo de batalha.
Nesse cenário, a ideia de um bunker para proteger as mentes por trás da inteligência artificial não parece mais uma loucura, mas uma consideração estratégica em um mundo onde o controle da tecnologia determina o equilíbrio de poder.
Bunker Anti-Apocalipse, O Terror da Linha de Frente
A história do bunker apocalíptico de Sutskever nos confronta com o paradoxo do inovador: aqueles que ultrapassam os limites da tecnologia são frequentemente os primeiros a temer as consequências. Essa dupla atitude (entusiasmo e medo, ambição e cautela) caracteriza a fronteira da inteligência artificial.
Seja paranoia ou previsão, a proposta do ex-executivo da OpenAI nos obriga a confrontar questões fundamentais: quanto controle realmente temos sobre as tecnologias que estamos criando? E se os próprios criadores temem as consequências a ponto de considerarem se refugiar em bunkers subterrâneos, não deveríamos todos prestar mais atenção?