Os receios sobre o crescimento exponencial dos sistemas de IA estão a atingir rapidamente um nível febril, tanto que um especialista da indústria acredita que a única forma de o impedir é bombardear os centros de dados. Esta é a proposta de choque da Eliezer Yudkowski, pesquisador na área de aprendizado de máquina, em um editorial para a revista Time.
Quem é Eliezer Yudkowsky?
Yudkowsky passou mais de duas décadas estudando Inteligência Geral Artificial (AGI) e alertando sobre suas possíveis consequências desastrosas. É por isso que vai muito além do alarme levantado por pessoas como Elon Musk, Steve Wozniak e Andrew Yang na carta aberta do Instituto Futuro da Vida, que exige uma pausa de seis meses no desenvolvimento da IA. Yudkowsky argumenta que não é suficiente.
O especialista afirma que a única forma de evitar uma catástrofe é bloquear radicalmente a IA. Sua ideia? “Desligue todos os grandes clusters de GPU (as fazendas de computadores onde o inteligências artificiais mais poderoso) e impor um limite ao poder computacional que pode ser usado para treinar IA, reduzindo-o ao longo do tempo. Sem exceções, nem mesmo para governos e entidades militares."
E se alguém quebrasse essas regras? Yudkowsky não tem dúvidas: “Esteja pronto para destruir um data center rebelde com um ataque aéreo”.
Medos fundamentados ou psicose?
O tom das preocupações de Yudkowsky me intriga: por mais que eu concorde que são necessárias ética e atenção na direção dessas tecnologias, considero-os histéricos.
O especialista Yudkowsky diz temer que sua filha Nina não sobreviva até a idade adulta se IAs cada vez mais inteligentes continuarem a se desenvolver.
Convida, portanto, todos aqueles que compartilham dessas preocupações a adotar uma posição firme, porque, caso contrário, seus filhos também podem estar em perigo.
“Todos morreremos”
“O resultado mais provável da construção de uma inteligência artificial sobre-humana, em qualquer coisa remotamente semelhante às circunstâncias atuais, é que literalmente todas as pessoas na Terra morrerão.”
Não tenho dificuldade em defini-lo como um catastrofista. É claro que se alguém que realmente dedicou sua vida ao estudo dos perigos do futuro distópico da IA disser que estamos nos aproximando daquilo sobre o qual alertou, talvez valha a pena ouvir sua opinião.
No entanto, não devemos ceder à rejeição. Devemos apoiar o progresso: como mencionado, ética e atenção. Sem medo e acima de tudo sem obscurantismo.