Resposta: A IA pode usar muito pouca eletricidade para uma tarefa de texto simples, mas muito mais quando as solicitações são longas, as saídas são multimodais ou os sistemas operam em grande escala. O treinamento geralmente representa o maior consumo inicial de energia, enquanto a inferência diária se torna significativa à medida que as solicitações se acumulam.
Principais conclusões:
Contexto : Defina a tarefa, o modelo, o hardware e a escala antes de fornecer qualquer estimativa de energia.
Treinamento : Considere o treinamento de modelos como o principal evento inicial de investimento de energia ao planejar os orçamentos.
Inferência : Observe atentamente a inferência repetida, pois pequenos custos por solicitação se acumulam rapidamente em grande escala.
Infraestrutura : Inclua refrigeração, armazenamento, redes e capacidade ociosa em qualquer estimativa realista.
Eficiência : Utilize modelos menores, prompts mais curtos, cache e processamento em lote para reduzir o consumo de energia.

Artigos que você pode gostar de ler depois deste:
🔗 Como a IA afeta o meio ambiente
Explica a pegada de carbono da IA, o consumo de energia e as compensações em termos de sustentabilidade.
🔗 A inteligência artificial é prejudicial ao meio ambiente?
Revela os custos ambientais ocultos dos modelos de IA e dos centros de dados.
🔗 A inteligência artificial é boa ou ruim? Prós e contras
Uma análise equilibrada dos benefícios, riscos, ética e impactos reais da IA.
🔗 O que é IA? Um guia simples
Aprenda os conceitos básicos de IA, termos-chave e exemplos do dia a dia em minutos.
Por que essa pergunta é mais importante do que as pessoas pensam 🔍
O uso de energia pela IA não é apenas um tema de debate ambiental. Ele afeta algumas questões muito reais:
-
Custo da eletricidade - especialmente para empresas que executam muitas solicitações de IA
-
Impacto de carbono - dependendo da fonte de energia que alimenta os servidores.
-
Sobrecarga de hardware - chips potentes consomem muita energia.
-
Decisões de escala - uma simples sugestão barata pode se transformar em milhões de sugestões caras.
-
Design de produto - a eficiência é muitas vezes uma característica melhor do que as pessoas imaginam ( Google Cloud , Green AI )
Muitas pessoas perguntam “Quanta energia a IA consome?” porque querem um número impactante. Algo enorme. Algo que chame a atenção nas manchetes. Mas a pergunta mais pertinente é: De que tipo de uso da IA estamos falando? Porque isso muda tudo. ( IEA )
Uma única sugestão de autocompletar? Bem pouco.
Treinar um modelo de ponta em clusters massivos? Muito, muito mais.
Um fluxo de trabalho de IA empresarial sempre ativo, impactando milhões de usuários? Sim, isso se acumula rapidamente... como centavos se transformando em aluguel. ( DOE , Google Cloud )
Quanta energia a IA consome? Resposta curta ⚡
Aqui está a versão prática.
A IA pode usar desde uma fração minúscula de um watt-hora para uma tarefa simples até quantidades enormes de eletricidade para treinamento e implantação em larga escala. Essa variação parece comicamente ampla porque realmente é ampla. ( Google Cloud , Strubell et al. )
Em resumo:
-
Tarefas de inferência simples - geralmente relativamente modestas em termos de utilização.
-
Conversas longas, grande volume de dados, geração de imagens, geração de vídeos – um consumo de energia consideravelmente maior.
-
Treinar modelos grandes - o campeão peso-pesado do consumo de energia
-
Executando IA em escala o dia todo - onde "pequeno por solicitação" se torna "grande conta total" ( Google Cloud , DOE )
Uma boa regra prática é a seguinte:
-
O treinamento é o grande evento inicial de energia 🏭
-
A inferência é a conta de serviços públicos contínua 💡 ( Strubell et al. , Pesquisa do Google )
Então, quando alguém pergunta: " Quanta energia a IA consome?" , a resposta direta é: "Não uma quantidade exata, mas o suficiente para que a eficiência seja importante e para que a escala mude completamente o cenário." ( IEA , Green AI )
Sei que não é tão cativante quanto as pessoas gostariam. Mas é verdade.
O que caracteriza uma boa versão de uma estimativa de energia por IA? 🧠
Uma boa estimativa não é apenas um número impactante exibido em um gráfico. Uma estimativa prática inclui contexto. Do contrário, é como tentar pesar neblina com uma balança de banheiro. Suficientemente próxima para parecer impressionante, mas insuficiente para inspirar confiança. ( IEA , Google Cloud )
Uma estimativa de energia baseada em IA decente deve incluir:
-
Tipo de tarefa : texto, imagem, áudio, vídeo, treinamento, ajuste fino
-
O tamanho do modelo — modelos maiores geralmente exigem mais poder computacional.
-
O hardware utilizado - nem todos os chips são igualmente eficientes.
-
Duração da sessão : instruções curtas e fluxos de trabalho longos com várias etapas são muito diferentes.
-
Utilização - sistemas ociosos ainda consomem energia
-
Refrigeração e infraestrutura — o servidor não representa a totalidade da conta.
-
Localização e matriz energética - a eletricidade não é igualmente limpa em todos os lugares ( Google Cloud , IEA )
É por isso que duas pessoas podem discutir sobre o consumo de eletricidade por IA e ambas parecerem confiantes, mesmo falando de coisas completamente diferentes. Uma pessoa se refere a uma única resposta de um chatbot. A outra, a um enorme treinamento. Ambas dizem "IA", e de repente a conversa descamba para o desvario 😅
Tabela comparativa - as melhores maneiras de estimar o consumo de energia da IA 📊
Eis uma tabela prática para quem tenta responder à pergunta sem transformá-la em uma performance artística.
| Ferramenta ou método | Melhor público | Preço | Por que funciona |
|---|---|---|---|
| estimativa simples baseada em regra prática | Leitores curiosos, estudantes | Livre | Rápido, fácil, um pouco impreciso, mas bom o suficiente para comparações aproximadas |
| Medidor de potência do lado do dispositivo | Construtores individuais, amadores | Baixo | Mede o consumo real da máquina, que é surpreendentemente concreto |
| painel de telemetria da GPU | Engenheiros, equipes de aprendizado de máquina | Médio | Mais detalhes sobre tarefas computacionalmente intensivas, embora possa não levar em conta a sobrecarga maior das instalações |
| Faturamento na nuvem + registros de uso | Startups, equipes de operações | Médio a alto | Conecta o uso de IA aos gastos reais — não é perfeito, mas ainda assim é bastante valioso |
| Relatórios de energia do data center | Equipes empresariais | Alto | Proporciona maior visibilidade operacional, e os sistemas de refrigeração e infraestrutura começam a aparecer aqui |
| Avaliação completa do ciclo de vida | Equipes de sustentabilidade, grandes organizações | Alto, às vezes doloroso | Ideal para análises sérias, pois vai além do próprio chip... mas é lento e um tanto monstruoso |
Não existe um método perfeito. Essa é a parte um pouco frustrante. Mas existem níveis de qualidade. E, geralmente, algo funcional é melhor do que a perfeição. ( Google Cloud )
O fator mais importante não é mágica - é poder computacional e hardware 🖥️🔥
Quando as pessoas imaginam o consumo de energia da IA, muitas vezes pensam no próprio modelo como o dispositivo que consome energia. Mas o modelo é uma lógica de software executada em hardware. É no hardware que a conta de luz aparece. ( Strubell et al. , Google Cloud )
As principais variáveis geralmente incluem:
-
GPU ou tipo de acelerador
-
Quantas fichas são usadas?
-
Por quanto tempo eles permanecem ativos
-
Carga de memória
-
Tamanho do lote e rendimento
-
Se o sistema está bem otimizado ou apenas tentando fazer tudo na base da força bruta ( Google Cloud , Quantização, Agrupamento e Estratégias de Serviço no Uso de Energia do LLM )
Um sistema altamente otimizado consegue realizar mais trabalho com menos energia. Um sistema malfeito pode desperdiçar eletricidade com uma confiança impressionante. Você sabe como é: algumas configurações são carros de corrida, outras são carrinhos de supermercado com foguetes presos com fita adesiva 🚀🛒
Sim, o tamanho do modelo importa. Modelos maiores tendem a exigir mais memória e mais poder computacional, especialmente ao gerar resultados longos ou lidar com raciocínios complexos. Mas truques de eficiência podem mudar esse cenário: ( IA Verde , Quantização, Agrupamento e Estratégias de Serviço no Uso de Energia do LLM )
-
quantização
-
melhor roteamento
-
modelos especializados menores
-
armazenamento em cache
-
loteamento
-
Agendamento de hardware mais inteligente ( Estratégias de quantização, agrupamento e distribuição no uso de energia do LLM )
Portanto, a questão não é apenas "Qual o tamanho do modelo?", mas também "Quão inteligentemente ele está sendo executado?"
Treinamento versus inferência - são coisas completamente diferentes 🐘🐇
Essa é a divisão que confunde quase todo mundo.
Treinamento
O treinamento é a etapa em que um modelo aprende padrões a partir de enormes conjuntos de dados. Isso pode envolver muitos chips funcionando por longos períodos, processando volumes gigantescos de dados. Essa etapa consome muita energia. Às vezes, uma quantidade absurda. ( Strubell et al. )
O nível de energia gasto no treino depende de:
-
tamanho do modelo
-
tamanho do conjunto de dados
-
número de corridas de treinamento
-
experimentos fracassados
-
passes de ajuste fino
-
eficiência do hardware
-
resfriamento superior ( Strubell et al. , Pesquisa do Google )
E aqui está a parte que as pessoas frequentemente ignoram: o público costuma imaginar um grande treinamento único, realizado uma única vez, e fim da história. Na prática, o desenvolvimento pode envolver execuções repetidas, ajustes, retreinamento, avaliação e todas as iterações prosaicas, porém dispendiosas, em torno do evento principal. ( Strubell et al. , Green AI )
Inferência
A inferência é o modelo que responde às solicitações reais do usuário. Uma solicitação pode não parecer muita coisa. Mas a inferência acontece repetidamente. Milhões de vezes. Às vezes, bilhões. ( Pesquisa do Google , Departamento de Energia dos EUA )
A energia de inferência aumenta com:
-
duração do prompt
-
comprimento de saída
-
número de usuários
-
requisitos de latência
-
recursos multimodais
-
expectativas de tempo de atividade
-
etapas de segurança e pós-processamento ( Google Cloud , quantização, processamento em lote e estratégias de distribuição no uso de energia do LLM )
Então, o treinamento é o terremoto. A inferência é a maré. Um é dramático, o outro é persistente, e ambos podem remodelar um pouco a costa. É uma metáfora incomum, talvez, mas faz sentido... mais ou menos.
Os custos de energia ocultos que as pessoas esquecem 😬
Quando alguém estima o consumo de energia da IA olhando apenas para o chip, geralmente está subestimando o número real. Nem sempre de forma desastrosa, mas o suficiente para causar problemas. ( Google Cloud , IEA )
Aqui estão as peças escondidas:
Refrescante ❄️
Servidores geram calor. Hardware de IA potente gera muito calor. O resfriamento não é opcional. Cada watt consumido pela computação tende a exigir mais energia apenas para manter as temperaturas sob controle. ( IEA , Google Cloud )
Movimentação de dados 🌐
A transferência de dados entre dispositivos de armazenamento, memória e redes também consome energia. A IA não se limita a "pensar". Ela também está constantemente reorganizando informações. ( IEA )
Capacidade ociosa 💤
Sistemas construídos para demanda máxima nem sempre operam em demanda máxima. Infraestrutura ociosa ou subutilizada ainda consome eletricidade. ( Google Cloud )
Redundância e confiabilidade 🧱
Sistemas de backup, sistemas de failover, regiões duplicadas, camadas de segurança – tudo isso é valioso e faz parte do panorama energético mais amplo. ( IEA )
Armazenamento 📦
Dados de treinamento, embeddings, logs, checkpoints, saídas geradas - tudo isso reside em algum lugar. O armazenamento é mais barato que o processamento, certamente, mas não é gratuito em termos de energia. ( IEA )
É por isso que a pergunta " Quanta energia a IA consome?" não pode ser respondida adequadamente apenas analisando um único gráfico de referência. A análise completa da infraestrutura é fundamental. ( Google Cloud , IEA )
Por que um comando de IA pode ser minúsculo, enquanto o seguinte pode ser um monstro? 📝➡️🎬
Nem todas as solicitações são iguais. Um pedido simples para reescrever uma frase não é comparável a uma solicitação de análise detalhada, uma sessão de codificação complexa ou a geração de imagens de alta resolução. ( Google Cloud )
Fatores que tendem a aumentar o consumo de energia por interação:
-
Janelas de contexto mais longas
-
Respostas mais longas
-
Etapas de utilização e recuperação da ferramenta
-
Múltiplas passagens para raciocínio ou validação
-
Geração de imagem, áudio ou vídeo
-
Maior simultaneidade
-
Metas de baixa latência ( Google Cloud , quantização, processamento em lote e estratégias de serviço no uso de energia do LLM )
Uma resposta simples em texto pode ser relativamente barata. Um fluxo de trabalho multimodal complexo pode, bem, não ser barato. É um pouco como pedir um café em vez de contratar um buffet para um casamento. Ambos são tecnicamente considerados "serviços de alimentação". Mas um não é como o outro ☕🎉
Isso é especialmente importante para as equipes de produto. Um recurso que parece inofensivo em baixo uso pode se tornar caro em grande escala se cada sessão do usuário se tornar mais longa, mais rica e exigir mais poder computacional. ( DOE , Google Cloud )
IA para o consumidor e IA empresarial não são a mesma coisa 🏢📱
O usuário médio de IA que utiliza a inteligência artificial ocasionalmente pode presumir que seus avisos ocasionais sejam o grande problema. Normalmente, não é aí que reside a principal questão relacionada ao consumo de energia. ( Google Cloud )
O uso empresarial altera os cálculos:
-
milhares de funcionários
-
copilotos sempre ativos
-
processamento automatizado de documentos
-
resumo de chamadas
-
análise de imagem
-
ferramentas de revisão de código
-
agentes em segundo plano em execução constante
É aí que o consumo agregado de energia começa a importar muito. Não porque cada ação seja apocalíptica, mas porque a repetição é um multiplicador. ( DOE , IEA )
Nos meus próprios testes e análises de fluxo de trabalho, é aqui que as pessoas se surpreendem. Elas se concentram no nome do modelo ou na demonstração chamativa e ignoram o volume. O volume costuma ser o verdadeiro fator determinante — ou a salvação, dependendo se você está faturando para os clientes ou pagando a conta de luz 😅
Para os consumidores, o impacto pode parecer abstrato. Para as empresas, torna-se concreto muito rapidamente:
-
projetos de infraestrutura mais robustos
-
maior pressão para otimizar
-
maior necessidade de modelos menores sempre que possível
-
relatórios internos de sustentabilidade
-
mais atenção ao armazenamento em cache e ao roteamento ( Google Cloud , Green AI )
Como reduzir o consumo de energia da IA sem abrir mão da IA 🌱
Essa parte é importante porque o objetivo não é "parar de usar IA". Normalmente, isso não é realista, e nem mesmo necessário. Um uso melhor é o caminho mais inteligente.
Eis as principais alavancas:
1. Use o modelo menor que seja capaz de realizar a tarefa
Nem toda tarefa exige a opção mais complexa. Um modelo mais leve para classificação ou sumarização pode reduzir o desperdício rapidamente. ( Green AI , Google Cloud )
2. Reduzir as mensagens e as saídas
Verboso entra, verboso sai. Tokens extras significam computação extra. Às vezes, reduzir o prompt é a solução mais simples. ( Quantização, agrupamento e estratégias de serviço no uso de energia do LLM , Google Cloud )
3. Armazenar em cache resultados repetidos
Se a mesma consulta continuar aparecendo, não a regenere todas as vezes. Isso é quase ofensivamente óbvio, mas passa despercebido. ( Google Cloud )
4. Processar tarefas em lote sempre que possível
Executar tarefas em lotes pode melhorar a utilização e reduzir o desperdício. ( Estratégias de quantização, agrupamento e distribuição no uso de energia em LLM )
5. Direcione as tarefas de forma inteligente
Use modelos grandes somente quando a confiança diminuir ou a complexidade da tarefa aumentar. ( Green AI , Google Cloud )
6. Otimizar a infraestrutura
Melhor planejamento, melhor hardware, melhor estratégia de resfriamento - coisas prosaicas, mas com enorme retorno. ( Google Cloud , DOE )
7. Meça antes de presumir
Muitas equipes acham que sabem para onde a energia está indo. Aí elas medem, e lá está: a parte mais cara está em outro lugar. ( Google Cloud )
O trabalho de otimização de recursos não é glamoroso. Raramente recebe aplausos. Mas é uma das melhores maneiras de tornar a IA mais acessível e defensável em larga escala 👍
Mitos comuns sobre o consumo de eletricidade por IA 🚫
Vamos esclarecer alguns mitos, pois esse assunto pode se tornar complexo rapidamente.
Mito 1 - Toda consulta de IA é um enorme desperdício
Não necessariamente. Algumas são modestas. A escala e o tipo de tarefa importam muito. ( Google Cloud )
Mito 2 - O treino é a única coisa que importa
Não. A inferência pode se tornar dominante ao longo do tempo quando o uso é massivo. ( Pesquisa do Google , Departamento de Energia dos EUA )
Mito 3 - Um modelo maior sempre significa um resultado melhor
Às vezes sim, às vezes absolutamente não. Muitas tarefas funcionam bem com sistemas menores. ( Green AI )
Mito 4 - O consumo de energia equivale automaticamente ao impacto de carbono
Não exatamente. O carbono também depende da fonte de energia. ( IEA , Strubell et al. )
Mito 5 - É possível obter um número universal para o consumo de energia da IA
Não é possível, pelo menos não de uma forma que mantenha o seu significado. Ou é possível, mas ficará tão diluído que perderá o seu valor. ( IEA )
Por isso, perguntar " Quanta energia a IA consome?" é uma pergunta inteligente — mas apenas se você estiver preparado para uma resposta complexa em vez de um slogan.
Então... quanta energia a IA realmente consome? 🤔
Eis a conclusão fundamentada.
Usos da IA:
-
um pouco , para algumas tarefas simples.
-
muito mais , para geração multimodal pesada
-
uma quantidade muito grande , para treinamento de modelos em larga escala
-
uma quantidade enorme no total , quando milhões de solicitações se acumulam ao longo do tempo ( Google Cloud , DOE )
Essa é a forma dela.
O essencial é não reduzir toda a questão a um único número assustador ou a um gesto de desdém. O consumo de energia da IA é real. Importa. Pode ser melhorado. E a melhor forma de falar sobre isso é com contexto, não com teatralidade. ( IEA , Green AI )
Grande parte do debate público oscila entre extremos: de um lado, "a IA é basicamente gratuita"; do outro, "a IA é um apocalipse elétrico". A realidade é mais prosaica, o que a torna mais esclarecedora. É um problema sistêmico. Hardware, software, uso, escala, refrigeração, escolhas de design. Prosaico? Um pouco. Importante? Muito. ( IEA , Google Cloud )
Principais conclusões ⚡🧾
Se você chegou aqui se perguntando " Quanta energia a IA consome?" , aqui está a resposta:
-
Não existe um número que sirva para todos
-
O treinamento geralmente consome a maior parte da energia no início
-
A inferência torna-se um fator importante em grande escala
-
Tamanho do modelo, hardware, carga de trabalho e refrigeração, tudo isso importa
-
Pequenas otimizações podem fazer uma diferença surpreendentemente grande
-
A pergunta mais inteligente não é apenas "quanto", mas também "para qual tarefa, em qual sistema e em que escala?" ( IEA , Google Cloud )
Sim, a IA usa energia de verdade. Energia suficiente para merecer atenção. Energia suficiente para justificar uma engenharia melhor. Mas não de uma forma caricata, reduzida a um único número.
Perguntas frequentes
Quanta energia a IA consome para uma única solicitação?
Não existe um número universal para uma única solicitação, pois o consumo de energia depende do modelo, do hardware, da extensão da solicitação, da extensão da resposta e de qualquer ferramenta adicional utilizada. Uma resposta de texto curta pode ter um consumo relativamente modesto, enquanto uma tarefa multimodal longa pode consumir consideravelmente mais energia. A resposta mais significativa não é um único valor apresentado, mas sim o contexto que envolve a tarefa.
Por que as estimativas de consumo de energia da IA variam tanto?
As estimativas variam porque as pessoas frequentemente comparam coisas muito diferentes sob o mesmo rótulo de IA. Uma estimativa pode descrever uma resposta simples de um chatbot, enquanto outra pode abranger geração de imagens, vídeo ou treinamento de modelos em larga escala. Para que uma estimativa seja significativa, ela precisa de contexto, como tipo de tarefa, tamanho do modelo, hardware, utilização, refrigeração e localização.
O que consome mais energia: treinar IA ou executá-la no dia a dia?
O treinamento geralmente representa o maior consumo inicial de energia, pois pode envolver muitos chips funcionando por longos períodos em conjuntos de dados enormes. A inferência é o custo contínuo que surge a cada solicitação enviada pelos usuários e, em grande escala, também pode se tornar muito alta. Na prática, ambos são importantes, embora de maneiras diferentes.
O que faz com que uma solicitação de IA consuma muito mais energia do que outra?
Janelas de contexto mais longas, saídas mais extensas, passagens de raciocínio repetidas, chamadas de ferramentas, etapas de recuperação e geração multimodal tendem a aumentar o consumo de energia por interação. As metas de latência também são importantes, pois requisitos de resposta mais rápidos podem reduzir a eficiência. Uma pequena solicitação de reescrita e um longo fluxo de trabalho de codificação ou imagem simplesmente não são comparáveis.
Que custos energéticos ocultos as pessoas ignoram ao perguntarem quanta energia a IA consome?
Muitas pessoas se concentram apenas no chip, mas isso ignora o resfriamento, a movimentação de dados, o armazenamento, a capacidade ociosa e os sistemas de confiabilidade, como backups ou regiões de failover. Essas camadas de suporte podem alterar significativamente o consumo total de energia. É por isso que um benchmark isolado raramente captura o panorama completo do consumo de energia.
Um modelo de IA maior sempre consome mais energia?
Modelos maiores geralmente exigem mais poder computacional e memória, especialmente para resultados longos ou complexos, consumindo, portanto, mais energia. No entanto, maior não significa automaticamente melhor para todas as tarefas, e a otimização pode alterar esse cenário consideravelmente. Modelos menores e especializados, quantização, processamento em lote, armazenamento em cache e roteamento mais inteligente podem melhorar a eficiência.
O uso de IA pelo consumidor é o principal problema energético, ou a IA empresarial é a questão mais importante?
O uso casual pelo consumidor pode se acumular, mas o impacto energético mais amplo geralmente se manifesta em implantações corporativas. Sistemas operacionais colaborativos sempre ativos, processamento de documentos, resumo de chamadas, revisão de código e agentes em segundo plano criam demandas repetidas em grandes bases de usuários. A questão geralmente não se resume a uma ação drástica isolada, mas sim ao volume sustentado ao longo do tempo.
Quanta energia a IA consome, incluindo data centers e refrigeração?
Ao incluir o sistema mais amplo, a resposta torna-se mais realista e geralmente é maior do que as estimativas que consideram apenas os chips sugerem. Os centros de dados precisam de energia não apenas para computação, mas também para refrigeração, redes, armazenamento e manutenção de capacidade ociosa. É por isso que o projeto da infraestrutura e a eficiência das instalações são quase tão importantes quanto o projeto do modelo.
Qual é a forma mais prática de medir o consumo de energia da IA em um fluxo de trabalho real?
O melhor método depende de quem está fazendo a medição e para qual finalidade. Uma regra prática aproximada pode ajudar em comparações rápidas, enquanto medidores de consumo de energia, telemetria de GPUs, registros de faturamento em nuvem e relatórios de data centers fornecem insights operacionais progressivamente mais robustos. Para um trabalho sério de sustentabilidade, uma visão completa do ciclo de vida é ainda mais eficaz, embora seja mais lenta e exigente.
Como as equipes podem reduzir o consumo de energia da IA sem abrir mão de recursos úteis da IA?
Os maiores ganhos geralmente vêm do uso do menor modelo que ainda execute a tarefa, da redução de prompts e saídas, do armazenamento em cache de resultados repetidos, do agrupamento de tarefas e do direcionamento apenas de tarefas mais complexas para modelos maiores. A otimização da infraestrutura também é importante, especialmente o agendamento e a eficiência do hardware. Em muitos fluxos de trabalho, medir primeiro ajuda a evitar que as equipes otimizem a coisa errada.
Referências
-
Agência Internacional de Energia (IEA) - Demanda de energia da IA - iea.org
-
Departamento de Energia dos EUA (DOE) - DOE divulga novo relatório avaliando o aumento da demanda de eletricidade em data centers - energy.gov
-
Google Cloud - Medindo o impacto ambiental da inferência de IA - cloud.google.com
-
Pesquisa do Google - Boas notícias sobre a pegada de carbono do treinamento de aprendizado de máquina - research.google
-
Pesquisa do Google - A pegada de carbono do treinamento de aprendizado de máquina se estabilizará e depois diminuirá - research.google
-
arXiv - IA Verde - arxiv.org
-
arXiv - Strubell et al. -arxiv.org
-
arXiv - Estratégias de quantização, processamento em lote e distribuição no uso de energia em LLM - arxiv.org