This site is part of Informa PLC

This site is operated by a business or businesses owned by Informa PLC and all copyright resides with them. Informa PLC's registered office is 5 Howick Place, London SW1P 1WG. Registered in England and Wales. Number 3099067.

Informa logo

IA Generativa e a Necessidade de Novos Designs de Data Center

A explosão da IA generativa está forçando uma ruptura no modelo clássico de data center: densidades que saltam de 5–10 kW por rack para 80–100 kW (e rumo a 600 kW) exigem novos desenhos elétricos, térmicos e de implantação para seguir entregando disponibilidade, eficiência e aderência às metas ESG.

1. IA generativa mudou o perfil do data center

Clusters de IA já operam com até 100 kW por rack, contra 15–20 kW típicos de racks de TI convencional sem IA. Em configurações atuais, cada GPU de última geração consome entre 700 W e 1.200 W, e um rack com cerca de 80 GPUs pode exigir 80 kW de potência contínua, o equivalente a 20–30 racks tradicionais.

Estudos recentes mostram clusters com dezenas de milhares de GPUs H100 consumindo algo como 31 MW de carga de TI distribuídos em cerca de 700 racks, sem sequer contabilizar todo o overhead de resfriamento. Fabricantes como NVIDIA já projetam infraestruturas voltadas à próxima geração (Rubin/Blackwell), falando em racks de IA que podem chegar a 600 kW, o que muda completamente a lógica de projeto de sala, alimentação e refrigeração.

Essa combinação de alta densidade e carga praticamente contínua (treino e inferência 24x7) elimina as folgas típicas de data centers corporativos e leva o desenho para a lógica de “AI factories”, onde potência de TI em MW passa a ser a unidade de planejamento central.

2. Densidade extrema exige outro desenho físico

Racks tradicionais de data center operam historicamente na faixa de 5–15 kW por rack; já em ambientes otimizados para IA, a referência está migrando para 30–80 kW por rack como novo “normal”. Alguns projetos Blackwell com 72 GPUs por rack já falam em cerca de 120 kW, dez vezes a potência de um rack típico.

Isso desencadeia mudanças físicas importantes:

  • Salas técnicas menores com densidade muito maior, o que aumenta a carga térmica por metro quadrado e exige layouts de corredores, contenção e passagens técnicas repensados.
  • Limites de peso por rack (em torno de 3–3,5 toneladas) passam a ser restrição real de piso elevado, fixação e transporte, mesmo em ambientes com menos racks.
  • Caminhos de cabos de energia e rede precisam suportar correntes muito maiores por percurso, pressionando o uso de barramentos blindados e distribuição vertical mais curta.

Em vez de projetar salas para “número de racks”, o desenho passa a ser dimensionado por “MW de TI” por sala ou módulo, com envelopes térmicos e elétricos dedicados às ilhas de IA generativa.

3. Resfriamento líquido deixa de ser opcional

Com GPUs consumindo 700–1.200 W cada, o ar sozinho deixa de ser eficiente para remover calor de forma econômica e dentro dos limites de ruído e espaço. Fabricantes e operadores já tratam o resfriamento líquido (direct-to-chip, rear-door, imersão) como padrão de fato para clusters de IA de alta densidade.

Alguns pontos de virada:

  • Racks baseados em GPUs Blackwell, com cerca de 72 GPUs, geram mais de 100–120 kW de calor, exigindo soluções líquidas de alta capacidade; fornecedores já oferecem sistemas plug‑and‑play para esse patamar térmico.
  • Plataformas como a GB200 NVL72 usam resfriamento líquido para operar com água mais quente, reduzindo ou eliminando chillers mecânicos e, com isso, consumo de energia e água do sistema de climatização.
  •  A transição para água em média temperatura (até ~45 °C) abre espaço para reaproveitamento de calor em aquecimento distrital ou processos industriais, o que melhora o balanço ESG do data center.

Relatórios de fabricantes estimam que, em um data center de 50 MW, a combinação de resfriamento líquido otimizado e arquitetura dedicada de IA pode reduzir custos anuais de energia e água em milhões de dólares e melhorar significativamente métricas como PUE e WUE.

4. Potência em MW: novos requisitos elétricos

A IA consome de 4 a 8 vezes mais energia por servidor que cargas tradicionais, pressionando redes internas e a própria concessionária. Isso desloca o foco do projeto elétrico para soluções de média tensão, UPS de alto rendimento e distribuição mais enxuta.

Tendências claras nos projetos de data center focados em IA:

  •  Uso crescente de UPS em média tensão, com eficiência próxima de 98% até 24 kV, reduzindo perdas, seções de cabos e, em alguns casos, até eliminando a necessidade de grupos geradores convencionais.
  • Arquiteturas de distribuição que priorizam caminhos curtos e escaláveis, com barramentos de alta capacidade alimentando “pods” de IA de 1–3 MW cada, em vez de longas malhas de baixa tensão de 400/480 V.
  •  Planejamento de conexão à rede baseado em múltiplos alimentadores dedicados em alta/média tensão e, cada vez mais, contratos de energia renovável (PPAs) e uso de baterias BESS para suporte de picos.

A pressão por eficiência aparece diretamente na métrica PUE: estudos mostram PUE médio global em torno de 1,57, enquanto data centers de vanguarda já operam abaixo de 1,2 usando técnicas avançadas de resfriamento e distribuição elétrica otimizada. Em um contexto de IA, cada décimo ganho em PUE representa milhões por ano em economia de OPEX.

5. Modularidade e novos formatos de implantação

O ritmo de crescimento da demanda por IA e o ticket de investimento estão empurrando o setor para soluções mais modulares, pré‑fabricadas e escaláveis

Duas linhas se destacam:

  •  Data centers modulares pré‑fabricados: módulos completos de energia, TI e refrigeração que saem de fábrica testados, com PUE competitivo e time‑to‑market até 50% menor que obras convencionais.
  • Pods ou contêineres de IA: unidades padronizadas de alta densidade (por exemplo, 100–300 servidores GPU por módulo), que podem ser acopladas a instalações existentes ou instaladas em novos sites próximos a fontes baratas de energia.

Essa abordagem permite:

  •  Crescer em degraus de MW, alinhando CAPEX à curva real de demanda de IA.
  • Desenvolver layouts híbridos: parte do site voltada a cargas de nuvem geral, parte a “pods” de IA com desenho térmico e elétrico radicalmente distinto.

Para operadores de colocation, os novos designs incluem zonas específicas “AI ready”, com piso preparado para 30–80 kW por rack, alimentação redundante de alta capacidade e infraestrutura de resfriamento líquido pré‑instalada para clientes de GPU.

6. Sustentabilidade, PUE/WUE e metas ESG

Ao mesmo tempo em que aumenta o consumo de energia, a IA elevou a barra de cobrança por sustentabilidade. A discussão deixa de ser apenas “quanto consome” e passa a incluir “como consome” e “de onde vem essa energia”.

Alguns vetores concretos:

  • Projetos de data center com IA operando com 100% de energia renovável certificada (I‑REC), PUE em torno de 1,4 e WUE próximo de zero, usando fontes hídrica, solar e eólica e tecnologias que evitam uso direto de água.
  • Uso de IA e AIOps para otimizar dinamicamente o PUE, controlar setpoints de temperatura, acionar ventiladores e bombas de forma preditiva e reduzir desperdícios sem comprometer SLA.
  •  Aplicação de métricas consolidadas – PUE, WUE e CUE – como indicadores centrais em relatórios ESG, com grandes operadoras assumindo metas explícitas de Net Zero para 2030–2040.

Estudos apontam que o consumo global de data centers pode dobrar até 2030, com a IA como principal motor, o que torna inaceitáveis projetos que não incorporem desde a origem fontes renováveis, alta eficiência e planos claros de compensação de carbono.

7. Implicações para ROI e planejamento de novos projetos

Os novos designs de data center para IA generativa têm CAPEX mais alto por MW instalado, mas também concentram mais receita e produtividade por metro quadrado e por rack. A análise de ROI deixa de olhar apenas para custo de construção por MVA e passa a considerar:

  • Receita potencial por rack de IA de 30–80 kW, muitas vezes múltiplos da receita de racks tradicionais de 5–10 kW.
  • Reduções de OPEX via PUE melhorado (por exemplo, sair de 1,6 para 1,2 pode cortar próximo de 25% da energia não‑TI) e via resfriamento líquido que substitui chillers mecânicos intensivos.
  • Diferencial competitivo de sites com energia 100% renovável e certificações de carbono neutro, cada vez mais exigidas por clientes globais de nuvem e IA.

Consultorias apontam que grandes empresas de tecnologia planejam investir cerca de US$ 1 trilhão em novos data centers nos próximos cinco anos, impulsionados justamente por cargas de IA. Para capturar parte relevante desse fluxo, operadores precisarão:

  • Reprojetar portfólios com zonas ou sites dedicados a IA, preparados para densidades de 30–100 kW por rack e integração nativa de resfriamento líquido.
  • Rever arquitetura elétrica (mais média tensão, UPS mais eficientes, integração com renováveis e, em muitos casos, BESS) para suportar picos e garantir resiliência.
  •  Incorporar modularidade e pré‑fabricação para reduzir prazos e diluir riscos de investimento em um mercado em rápida mudança.

Em resumo, a IA generativa não é apenas mais uma carga de TI: ela exige uma nova geração de data centers, pensados desde o loteamento do terreno até o último rack, com foco em alta densidade, eficiência extrema e sustentabilidade como condição de negócio – não mais como diferencial opcional.