A energia consumida pela inteligência artificial do Google pode atingir níveis comparáveis aos de toda a Irlanda. Você leu no título, repito aqui: os números falam por si. À medida que a IA evolui e se expande, a indústria enfrenta um desafio energético proibitivo.
Quanto mais as empresas tecnológicas continuarem a desenvolver e integrar a IA numa vasta gama de serviços, desde o simples motor de pesquisa até às aplicações mais complexas, mais o consumo de energia associado se tornará uma questão crucial. A questão é: como sairemos dessa?
A ascensão dos chips de IA personalizados
A tendência é clara e crescente: as empresas de IA estão desenvolvendo seus próprios chips para atender às demandas cada vez mais exigentes dos sistemas. Gigantes gostam Google e Amazon eles já têm seus próprios chips de IA personalizados. E não são os únicos: há rumores persistentes de que Microsoft pode revelar seu hardware de chip no próximo mês.
A própria Microsoft também investiu pesadamente em OpenAI, que, segundo algumas fontes, está nos estágios iniciais de desenvolvimento de seus próprios chips ou considera adquirir uma empresa de semicondutores para fabricá-los.
Mas o que tudo isso significa para o nosso planeta? Isso significa que estará lá um aumento significativo na pegada energética da indústria de IA.
A pegada energética da indústria de IA
Dito de forma simples: se a IA generativa for integrada em todas as pesquisas do Google, a procura de energia da empresa atingirá níveis incríveis. Em um artigo publicado no Joule (eu linko aqui), os pesquisadores estimam que a integração de um chatbot semelhante ao ChatGPT em todas as pesquisas que o Google solicitaria até 512,820 servidores NVIDIA A100 HGX. Traduzido em números? Significa além 4 milhões de GPUs. Faça as contas: com uma demanda energética de 6,5 kW por servidor, o consumo diário de energia elétrica seria de 80 GWh, o consumo anual seria de 29,2 TWh. São os de uma nação inteira como a Irlanda.
Quando a IA “bebe” mais
As ferramentas de IA têm um fase de treinamento inicial seguido por um fase de inferência. Embora a fase de formação seja a que consome mais energia e tenha sido o foco da investigação em sustentabilidade da IA até agora, a fase de inferência é quando estas ferramentas geram resultados com base nos dados em que foram treinadas.
Esta fase, muitas vezes esquecida, merece atenção absoluta. Porque esta fase vai aumentar dramaticamente e acabará superando a anterior. As estimativas da “fome de energia” de vários sistemas de inteligência artificial precisam ser revisadas.
Não podemos dar-nos ao luxo de ignorar a energia consumida por estes sistemas, o progresso tecnológico e a responsabilidade ambiental devem ser equilibrados: só assim seremos capazes de dar à tecnologia uma oportunidade real de melhorar o nosso futuro.