
ChatGPT, a plataforma de chatbot da OpenAI, pode não ser tão ávido por energia como antes se pensava. Mas seu apetite depende em grande parte de como o ChatGPT está sendo usado e dos modelos de IA que estão respondendo às consultas, de acordo com um novo estudo.
Uma análise recente realizada pelo Epoch AI, um instituto de pesquisa de IA sem fins lucrativos, tentou calcular quanto de energia uma consulta típica do ChatGPT consome. Uma estatística comumente citada é que o ChatGPT requer cerca de 3 watt-hours de energia para responder a uma única pergunta, ou 10 vezes mais do que uma pesquisa no Google.
Epoch acredita que isso é uma superestimação.
Usando o modelo padrão mais recente da OpenAI para o ChatGPT, o GPT-4o, como referência, Epoch descobriu que a consulta média do ChatGPT consome cerca de 0,3 watt-hour - menos do que muitos eletrodomésticos.
"O uso de energia realmente não é um grande problema comparado ao uso de aparelhos normais, aquecendo ou resfriando sua casa, ou dirigindo um carro," Joshua You, o analista de dados da Epoch que conduziu a análise, disse ao TechCrunch.
O uso de energia da IA - e seu impacto ambiental, falando de forma ampla - é objeto de um debate contencioso à medida que as empresas de IA buscam expandir rapidamente suas infraestruturas. Apenas na semana passada, um grupo de mais de 100 organizações publicou uma carta aberta pedindo à indústria de IA e aos reguladores para garantir que os novos centros de dados de IA não esgotem os recursos naturais e forcem as concessionárias a depender de fontes de energia não renováveis.
Você disse ao TechCrunch que sua análise foi motivada pelo que ele caracterizou como pesquisas anteriores desatualizadas. Você apontou, por exemplo, que o autor do relatório que chegou à estimativa de 3 watt-hours assumiu que a OpenAI usava chips mais antigos e menos eficientes para executar seus modelos.

“Tenho visto muito discurso público que reconheceu corretamente que a IA consumiria muita energia nos próximos anos, mas não descreveu realmente com precisão a energia que a IA estava consumindo hoje,” You disse. “Além disso, alguns dos meus colegas notaram que a estimativa mais amplamente divulgada de 3 watt-hours por consulta era baseada em pesquisas bastante antigas e, com base em alguns cálculos simples, parecia ser muito alta.”
Concedido, a figura de 0,3 watt-hours da Epoch é uma aproximação; a OpenAI não publicou os detalhes necessários para fazer um cálculo preciso.
A análise também não considera os custos adicionais de energia incorridos pelas funcionalidades do ChatGPT, como geração de imagens ou processamento de entrada. Você reconheceu que consultas do ChatGPT com "entradas longas" - consultas com arquivos longos anexados, por exemplo - provavelmente consomem mais eletricidade no início do que uma pergunta típica.
Você disse que espera que o consumo de energia básico do ChatGPT aumente, no entanto.
“[A] IA se tornará mais avançada, treinar essa IA provavelmente exigirá muito mais energia e essa IA futura poderá ser usada de forma muito mais intensiva - lidando com muito mais tarefas e tarefas mais complexas, do que como as pessoas usam o ChatGPT hoje,” You disse.
Embora tenha havido avanços notáveis na eficiência da IA nos últimos meses, espera-se que a escala em que a IA está sendo implantada impulsione uma expansão maciça e ávida por energia da infraestrutura. Nos próximos dois anos, os centros de dados de IA podem precisar de quase toda a capacidade de energia de 2022 da Califórnia (68 GW), segundo um relatório da Rand. Até 2030, o treinamento de um modelo de ponta poderia exigir uma produção energética equivalente à de oito reatores nucleares (8 GW), previu o relatório.
O ChatGPT sozinho alcança um número enorme - e em expansão - de pessoas, tornando suas demandas de servidores igualmente massivas. A OpenAI, juntamente com vários parceiros de investimento, planeja gastar bilhões de dólares em novos projetos de centros de dados de IA ao longo dos próximos anos.
A atenção da OpenAI - juntamente com o restante da indústria de IA - também está se voltando para modelos de raciocínio, que geralmente são mais capazes em termos das tarefas que podem realizar, mas requerem mais computação para rodar. Ao contrário de modelos como o GPT-4o, que respondem às consultas praticamente instantaneamente, os modelos de raciocínio "pensam" por segundos a minutos antes de responder, um processo que consome mais computação - e, portanto, energia.
“Os modelos de raciocínio assumirão cada vez mais tarefas que os modelos antigos não conseguem, e geram mais [dados] para fazer isso, e ambos requerem mais centros de dados,” You disse.
A OpenAI começou a lançar modelos de raciocínio mais eficientes em energia, como o o3-mini. Mas parece improvável, pelo menos neste momento, que os ganhos de eficiência compensem as demandas de energia aumentadas pelo processo de "pensamento" dos modelos de raciocínio e pela crescente utilização de IA em todo o mundo.
Você sugeriu que as pessoas preocupadas com sua pegada energética de IA usem aplicativos como o ChatGPT de forma menos frequente, ou selecionem modelos que minimizem a computação necessária - na medida do possível.
“Você poderia tentar usar modelos de IA menores como o GPT-4o-mini,” You disse, “e usá-los com moderação de uma maneira que exija processamento ou geração de uma tonelada de dados.”