A qualquer momento entre 2025 e 2028. É a janela de tempo em que Dario Amodei, CEO da Anthropic e “pai” da Claude AI, prevê que os modelos de IA poderiam alcançar a capacidade de replicar e sobreviver de forma autônoma. Uma afirmação chocante, que vem de um dos protagonistas da corrida para criar a inteligência artificial mais poderosa e “responsável”. Em entrevista no New York Times, Amodei compara o desenvolvimento da IA aos níveis de biossegurança dos laboratórios de virologia, alertando que sem “escalonamento responsável”, a tecnologia poderá em breve ganhar autonomia e extrema persuasão, com implicações alarmantes para a segurança global.
A analogia com os níveis de biossegurança
Para explicar a sua visão, Amodei utiliza uma analogia poderosa: os níveis de biossegurança (ASLs) dos laboratórios de virologia. Segundo o CEO da Anthropic, estamos atualmente no nível 2 da ASL em desenvolvimento de IA. Mas o nível 4 da ASL, que incluiria “autonomia” e “persuasão”, pode estar chegando.
ASL 4 tratará mais, do lado do uso indevido, de permitir que os atores estatais aumentem dramaticamente as suas capacidades, o que é muito mais difícil do que permitir isso a pessoas aleatórias. Seria preocupante se a Coreia do Norte, a China ou a Rússia pudessem melhorar significativamente as suas capacidades ofensivas em várias áreas militares com IA, de uma forma que lhes desse uma vantagem geopolítica substancial.
Dario Amodei
E é precisamente do lado da “autonomia” que as previsões de Amodei se tornam ainda mais alarmantes.
Várias versões desses modelos estão bastante próximas de serem capazes de replicar e sobreviver na natureza.
Dario Amodei
Quando o entrevistador pergunta ao pesquisador ítalo-americano quanto tempo levará para atingir esses vários níveis de ameaça, Amodei (que diz estar inclinado a pensar "exponencialmente") afirma que o nível de "replicar e sobreviver" poderia ser alcançado "em qualquer lugar entre 2025 e 2028”. “Estou realmente falando sobre o futuro próximo, aqui. Não estou falando daqui a 50 anos”, enfatiza o CEO da Anthropic. “Deus me conceda a castidade, mas não agora. Mas 'agora não' não significa quando eu estiver velho e grisalho. Acho que pode ser uma coisa de curto prazo."
Antrópico, palavras que carregam peso
As palavras de Amodei têm um peso especial, considerando o seu papel de liderança no setor de IA. em 2021, ele e sua irmã Daniela deixaram a OpenAI por divergências sobre os rumos da empresa, após ajudarem a criar o GPT-3 e verem a parceria com a Microsoft. Logo depois, os irmãos fundaram a Anthropic junto com outros ex-funcionários da OpenAI, com o objetivo de continuar seus esforços para “escalar de forma responsável” a IA.
"Eu posso estar errado. Mas acho que pode ser uma coisa de curto prazo." Palavras que, apesar da sua incerteza, soam como um sinal que não deve ser subestimado.
Num contexto em que as preocupações com a IA parecem estar a crescer a cada dia, a perspectiva de Amodei (com o seu ponto de vista altamente privilegiado dentro da indústria) acrescenta ainda mais peso à necessidade de uma governação responsável desta tecnologia disruptiva. A missão da Anthropic, “garantir que a IA transformadora ajude as pessoas e a sociedade a prosperar”, parece mais urgente do que nunca face a cenários como os imaginados pelo seu CEO. Se os modelos de IA estão realmente perto de alcançar a capacidade de replicação e sobrevivência autonomamente, especialmente acelerando a sua “evolução” graças àforma de realização, é fundamental que o seu desenvolvimento seja orientado por princípios éticos e de responsabilidade.
Eu já sei o que você está pensando
Esse é um feedback que recebo frequentemente quando relato as declarações dos diversos “Capataz” da inteligência artificial. Altman, Musk e agora também Amodei estão trabalhando duro para desenvolver algo que às vezes gostam de definir como muito perigoso. Por que? Muitos de vocês me escrevem que é marketing: os “desabafos”, mesmo os alarmistas, chamam a atenção para a empresa e para o produto. Como se dissesse: “Ei, estamos lidando com esse tipo de vírus letal, mas saiba que faremos isso com muito cuidado, porque nos preocupamos muito”.
Talvez. É claro que as previsões de Amodei parecem alarmistas e exageradas. Mas num campo em rápida evolução como a inteligência artificial, onde o progresso se sucede a um ritmo exponencial, é sensato preparar-se mesmo para os cenários mais extremos. Seja prevenindo o uso malicioso de IA por atores estatais (todos eles, não apenas aqueles nomeados por Amodeo, porque “o mais limpo tem problemas”) ou garantindo que os modelos não escapem ao controle humano, o desafio é imenso e exige um esforço conjunto de empresas, governos e sociedade civil.
As palavras de Amodei, apesar da sua natureza especulativa, devem servir como um estímulo para acelerar o debate e a acção sobre estas questões cruciais. Um debate, claro, em que a ‘bola’ não deve pertencer apenas aos próprios desenvolvedores de IA, mas a toda a sociedade civil. Vamos começar primeiro, na verdade: Quanto mais cedo começarmos, melhor.