
Gigantescas estruturas projetadas para sustentar a inteligência artificial, os data centers (ou centros de processamento de dados) se tornaram peças-chave da atual corrida tecnológica. Esse protagonismo tem levado as big techs a investir bilhões de dólares na construção e expansão dessas instalações.
Para se ter uma ideia, estima-se que, apenas em 2026, seis hyperscalers dos Estados Unidos — Microsoft, Amazon, Alphabet, Oracle, Meta e CoreWeave — devem direcionar cerca de US$ 500 bilhões (atuais R$ 2,68 trilhões) para investimentos em data centers. A corrida pela construção dessas plantas considerava a alta demanda por energia e armazenamento que modelos como o ChatGPT da OpenAI exigiam. No entanto, conforme modelos mais eficientes começam a surgir e se popularizar, uma dúvida tem começado a circular pelo mercado: será que vamos precisar mesmo de tantos data centers?
A chinesa DeepSeek, por exemplo, está apostando no DeepSeek V4, um sistema com foco em tarefas avançadas de programação e capaz de lidar com prompts de código extremamente longos, além de incluir no lançamento seu novo método para o treinamento de LLMs, o “Manifold-Constrained Hyper-Connections” (mHC, numa versão mais curta), que promete melhorar a escalabilidade dos modelos ao mesmo tempo em que reduz o consumo de energia e a demanda computacional no treinamento.
Por conta de exemplos como esse, Fernando Wagner da Silva, Head de Venture Capital da Crescera Capital, acredita que o mercado caminha, sim, para um cenário de ociosidade dos data centers nos próximos anos. Na avaliação do executivo, a atual corrida global por capacidade computacional ainda está concentrada em criar as LLMs mais poderosas — com maior precisão, velocidade e qualidade de geração de texto, imagens e vídeos —, o que naturalmente exige enormes volumes de processamento e energia.
No entanto, ele aponta que esse movimento tende a perder força à medida que poucas plataformas se consolidarem como dominantes. “A gente não tem espaço para ter 10, 20 grandes players de LLMs, a gente vai ter ali um subconjunto de dois, três, no máximo quatro, que vão dominar o mercado. Como tudo que acontece na computação e na informática, chega um momento em que você atinge um certo limite ali. Algumas vão ficar pelo caminho, enquanto as melhores vão sobreviver e vão dominar esse espaço. E aí, obviamente, a etapa seguinte vai ser realmente otimizar esse processo”, disse em entrevista ao Startups.
Dando continuidade a esse raciocínio, Fernando explica que, após a fase de disputa por potência máxima, a expectativa é de as empresas passarem a olhar para dentro de casa e a se perguntar onde é possível cortar custos. Isso inclui fazer com que os algoritmos ocupem menos espaço, consumam menos processamento e gastem menos energia. “No fim do dia, tudo isso é custo”, resume.
“Se você olhar os ciclos naturais da tecnologia de uma forma geral, a mesma coisa aconteceu com o chip de processamento. Hoje, os chips são muito mais eficientes em termos de energia do que há 10 anos atrás. Por quê? Chegou um momento em que o poder computacional começou a ‘crescer menos’, vamos dizer assim, porque você não consegue crescer exponencialmente para sempre, que é exatamente o que está acontecendo hoje com as LLMs. Elas estão no ritmo exponencial, mas a tendência é essa curva sair de uma exponencial e virar uma curva mais linear de crescimento. E aí quando você chega nisso, naturalmente você parte para as otimizações”, compara o executivo.
É nesse ponto que a otimização deixa de ser opcional e passa a ser estratégica. Ainda em entrevista, Fernando chegou a citar a própria DeepSeek como um dos primeiros exemplos desse caminho, ao adotar simplificações algorítmicas que reduziram drasticamente o consumo de memória e energia. A tendência, afirma, é que esse foco em eficiência se torne cada vez mais visível nos próximos anos, diminuindo a necessidade de novos data centers.
Um futuro talvez distante
Apesar da possibilidade de ociosidade dos data centers já começar a gerar preocupações em alguns executivos, de outro lado, a leitura pode ser bem menos imediata. Para Pietro Delai, Research Director de Worldwide Infrastructure da IDC (International Data Corporation), ainda falta muito para o mercado chegar a esse ponto. Segundo o executivo, a discussão não pode se limitar à eficiência dos modelos de IA, já que a infraestrutura por trás da tecnologia envolve uma cadeia complexa, cara e cheia de gargalos, especialmente quando se fala em hardware de alto desempenho.
Pietro argumenta que, apesar da otimização de software reduzir o consumo em determinadas etapas, a demanda por capacidade computacional continua crescendo, principalmente na fase de treinamento dos modelos.
Além disso, existe hoje um forte desequilíbrio entre oferta e procura por chips avançados, como GPUs e aceleradores de IA, cuja produção depende de poucos fornecedores globais e de processos industriais extremamente sofisticados. “O data center é só o prédio”, simplifica.
Antes de falar em excesso de capacidade, diz ele, o mercado ainda enfrenta dificuldades para conseguir máquinas, energia estável e componentes suficientes para acompanhar a ambição dos novos modelos. Isso indica que a ociosidade pode demorar mais a se tornar realidade, apesar de não se saber em quantos anos isso possa acontecer de fato.
“Não é tão fácil assim construir um data center. Não é algo que se compra pronto no Walmart ou no Carrefour“, ironiza. “Hoje ainda falta, existe um desequilíbrio na lei da oferta e da procura. O pessoal quer muito mais processadores de inteligência artificial, seja NPU, TPU ou GPU, do que o mercado consegue suprir”, complementa.
Na mesma linha, Cecílio Cosac Fraguas, fundador e CEO da startup de IA Jabuti AGI, afirma que a discussão sobre excesso de data centers ainda está mais no campo da projeção do que da realidade.
Segundo o profissional, há escassez de infraestrutura especializada, especialmente de GPUs voltadas ao processamento de IA. “Hoje existe fila para usar máquinas específicas. É como nos primórdios dos mainframes, quando era preciso agendar para usar as máquinas”, afirma.
Para o executivo, o alerta sobre a ociosidade surge quando se olha para o médio e longo prazo — e, principalmente, quando se quebra uma premissa que dominou a primeira onda da IA generativa: a ideia de que toda empresa relevante precisaria treinar um modelo do zero, com investimentos milionários em infraestrutura própria.
Esse paradigma, segundo Cecílio, está sendo rapidamente substituído por outro, baseado no uso de modelos pré-treinados, menores e mais especializados, que entregam eficiência igual ou superior em tarefas específicas. “Nós estamos migrando do treinamento para inferência, para falar as palavras técnicas corretas. Você passa a precisar de menos máquina, menos energia e menos data center”.
O engenheiro também levanta uma hipótese de que a ideia de “ociosidade” pode não ser exatamente o que parece. Para ele, parte dessa percepção pode estar ligada a decisões estratégicas do próprio mercado, que nem sempre coloca toda a infraestrutura disponível em jogo ao mesmo tempo.
“Às vezes existem tecnologias que estão prontas há muito tempo. Por exemplo, a história do 3G, 4G, 5G, já existe o 8G, a patente. Mas o pessoal fica esperando maturar para ganhar mais dinheiro ainda com a tecnologia antiga. Então, quando a gente fala que está sobrando, está sobrando aonde? Está sobrando data centers privados na mão de alguns grupos? Isso é uma coisa. Não é que o mercado está com uma oferta de data center absurda. Agora, se isso é jogo mercadológico, ou se é a realidade, eu não sei. Se alguém está escondendo data center ocioso”, teoriza.
Data centers ociosos geram lixo
Apesar de ainda distante da atualidade, a ideia data centers se tornarem ociosos também traz consigo outra preocupação: o meio ambiente. Segundo Fabio Gandour, PhD em ciência da computação e ex-chefe do laboratório da IBM, no caso dessas estruturas realmente se tornarem obsoletas, é esperado que bastante lixo seja gerado.
O executivo explicou ao Startups que o problema não é apenas a existência de equipamentos sem uso, mas a ausência de um plano claro para lidar com eles. “Quando essa capacidade começar a sobrar, não dá para fingir que ela vai desaparecer”, afirma.
O chamado “parque computacional” — conjunto de servidores, chips, sistemas de armazenamento e demais equipamentos que sustentam um data center — precisaria ser reaproveitado em outras funções. Ou, nos casos em que isso não fosse possível, reciclado de forma adequada. Caso contrário, a tendência é que essa infraestrutura vire entulho tecnológico, com impacto direto na geração de resíduos eletrônicos.
Para o especialista, essa discussão deve ganhar força justamente à medida que softwares e modelos de IA se tornem mais eficientes e menos vorazes no consumo de energia. A partir desse ponto, diz, será essencial detectar os primeiros sinais de excesso de capacidade e pensar em alternativas, como o uso desses equipamentos com energia limpa ou sua destinação correta. “Tecnologia evolui, e essa evolução sempre gera sucata ou entulho”, resume o ex-IBM. O desafio, agora, é evitar que os data centers do futuro se transformem no próximo grande problema ambiental do setor.
Mais eficiência, mais usos
Na avaliação da Elea Data Centers, a tese de que a otimização dos modelos de inteligência artificial levará à ociosidade estrutural dos data centers não se sustenta quando se observa o cenário completo.
De acordo com Gustavo Pereira, Diretor de Tecnologia da empresa, o que está em curso é uma mudança no perfil da demanda, e não uma retração. “A Elea vê a otimização dos modelos como parte natural da evolução tecnológica, não como um fator de redução de necessidade de infraestrutura. Historicamente, ganhos de eficiência não significam menos consumo total e sim mais aplicações, mais escala e mais criticidade”, disse em nota.
O executivo reforça que a IA não funciona de forma isolada. Pelo contrário: ela depende intensamente de dados, sistemas legados, plataformas corporativas e aplicações transacionais. À medida que os modelos evoluem, cresce também a necessidade de acesso contínuo, rápido e confiável a essas bases de dados, sistemas legados, aplicações corporativas e plataformas transacionais, o que tende a reforçar a importância da infraestrutura digital que sustenta esse ecossistema.
Com isso, para a Elea, esse movimento não representa uma ameaça à demanda por data centers, mas sim uma ampliação do mercado. “A demanda por data centers está cada vez mais ligada à diversidade de cargas como IA, cloud, edge, dados regulados, aplicações críticas, etc. e não a um único tipo de uso. Mesmo com modelos mais eficientes, o volume de dados processados, armazenados e distribuídos segue crescendo de forma consistente e é um mercado que tem espaço para todos”, reforça Gustavo.
O profissional também disse ao Startups que inteligência artificial vem deixando de ser apenas uma interface de chat e passa a operar cada vez mais em interações entre sistemas, o que exige ambientes com baixa latência, alta disponibilidade e presença geográfica distribuída.
“Na prática, a otimização redistribui a demanda. Modelos mais eficientes reduzem o custo da computação, o que viabiliza novos casos de uso, mais empresas adotando IA e aplicações que antes não eram economicamente possíveis. O efeito tende a ser expansão, não retração”, complementa o Diretor de Tecnologia da Elea.
Ao ser questionado sobre quais seriam as possibilidades de novos usos para os data centers em caso da infraestrutura realmente se tornar obsoleta, Gustavo disse que “data centers são estruturas essenciais que não se tornarão obsoletas. Inclusive, infraestruturas modernas são adaptáveis para diferentes cargas: cloud híbrida, edge computing, disaster recovery, ambientes de alta disponibilidade, processamento sensível a latência, além de workloads regulados. Flexibilidade é um ativo central nesse mercado”.