A Inteligência Artificial não para de crescer — e com ela a conta de luz e a temperatura de datacenters mundo afora. Para frear esse avanço nada sustentável, a startup californiana Aikido Technologies apresentou um plano que parece saído de ficção científica: colocar racks de servidores de alto desempenho dentro de turbinas eólicas flutuantes, no meio do oceano, usando a própria água fria do Mar do Norte como “ar-condicionado” natural. A primeira turbina-datacenter, de 100 kW, deve ser ancorada na costa da Noruega até dezembro de 2026.
Por que empurrar a IA para o alto-mar?
Os chips especializados em IA — de GPUs como a NVIDIA H100 a aceleradores customizados da AMD e Intel — consomem cada vez mais eletricidade, geram calor extremo e disputam espaço em regiões urbanas. Ao migrar a infraestrutura para plataformas semissubmersíveis, a Aikido mata três problemas de uma vez:
- Energia limpa in situ: a própria turbina offshore produz boa parte do que consome.
- Resfriamento passivo: a água entre 2 °C e 8 °C no inverno — e raramente acima de 18 °C no verão — funciona como dissipador gigante e gratuito.
- Zerando o efeito “ilha de calor”: libera áreas urbanas para outros usos e reduz o atrito regulatório.
Engenharia de navio-plataforma encontra datacenter
Imagine uma plataforma flutuante semissubmersível, parecida com as usadas em petróleo. Em vez de poços, três pilares gigantes cheios de água doce garantem estabilidade e abrigam salas de servidores de 3 a 4 MW cada. Somados, são de 9 a 12 MW por turbina — potência suficiente para centenas de placas de vídeo top de linha rodando modelos de IA generativa 24/7.
O truque está no circuito hidráulico fechado: a água doce circula junto aos chips, absorve o calor e, em seguida, troca essa energia térmica diretamente com a água fria do oceano através do casco. Sem torres de resfriamento barulhentas, sem chillers gastando megawatts extra. Apenas os componentes fora desse loop — fontes, switches de rede, roteadores — usam ar-condicionado convencional.
Intermitência do vento e maresia: pedras no caminho
Vento não sopra o tempo todo. Para cobrir calmarias de curto prazo, a plataforma terá baterias embarcadas; em períodos mais longos, uma linha submarina conecta a rede elétrica continental. Já a maresia traz o clássico pesadelo da corrosão. A manutenção exige navios de apoio, mergulhadores, peças tratadas contra sal — custos que ainda precisam fechar a conta.
O que essa solução significa para você?
Se o protótipo norueguês comprovar as estimativas, fabricantes de hardware e serviços de nuvem tendem a migrar parte da carga de IA para essas “ilhas” frias. Na prática, isso pode resultar em:
Imagem: William R
- Serviços de streaming de games mais estáveis, graças a data centers menos suscetíveis a picos de calor.
- Custos operacionais menores, que podem refletir em preços mais competitivos para locação de GPUs na nuvem ou para treinamentos de IA.
- Pressão por hardware ainda mais denso: soluções como NVIDIA Grace Hopper e AMD Instinct MI300 podem se popularizar mais rápido, impulsionando upgrades em PCs e workstations para quem quer acompanhar a evolução da infraestrutura profissional.
Uma corrida que já é global
Aikido não corre sozinha. Na China, um data center subaquático movido a energia eólica iniciou testes perto de Xangai em 2025. Se duas iniciativas em continentes diferentes convergirem em resultados positivos, países com extensos litorais — caso do Brasil, com potencial eólico offshore estimado em mais de 700 GW — podem virar palco da próxima onda de datacenters verdes.
No curto prazo, porém, todos os olhos se voltam para a Noruega. Se a água gelada do Mar do Norte der conta de esfriar as máquinas famintas de IA, o oceano pode se tornar o endereço mais promissor (e barato) para sua próxima sessão de jogo em nuvem ou para treinar aquele modelo generativo que exige pilhas de placas de vídeo.
Com informações de Hardware.com.br