CoreWeave Quebra o Recorde de Velocidade em Treinamento de IA com Enorme Cluster de GPUs para Modelos de Linguagem

Por
Lang Wang
7 min de leitura

A Infraestrutura de IA da CoreWeave Quebra Recordes e Estabelece um Novo Padrão da Indústria

Em um avanço significativo para a infraestrutura de inteligência artificial, a CoreWeave (Nasdaq: CRWV) demonstrou um desempenho sem precedentes no treinamento de grandes modelos de linguagem, com o potencial de remodelar a economia e o ritmo do desenvolvimento de IA para empresas em todo o mundo.

Coreweave (gstatic.com)
Coreweave (gstatic.com)

O Marco de 27 Minutos: Um Avanço Técnico Forjado em Anos de Trabalho

No que especialistas da indústria estão chamando de um momento decisivo para a computação em nuvem, a CoreWeave — em parceria com a NVIDIA e a IBM — conseguiu treinar um modelo massivo Llama 3.1 de 405 bilhões de parâmetros em apenas 27,3 minutos. Essa conquista, revelada em sua submissão ao MLPerf Training v5.0 em 4 de junho, representa mais que o dobro da velocidade de sistemas comparáveis.

"Isso não é apenas um progresso incremental — é uma mudança fundamental no que é possível", disse um arquiteto de sistemas de IA em um laboratório de pesquisa líder. "Execuções de treinamento que antes consumiam dias inteiros de trabalho agora terminam antes que seu café esfrie."

A conquista técnica depende da implantação pela CoreWeave de 2.496 GPUs NVIDIA GB200 em uma configuração especializada conhecida como NVL72, que agrupa 72 GPUs por meio de conexões NVLink de alta largura de banda. Essa arquitetura representa um afastamento significativo dos clusters de GPU tradicionais, eliminando muitos dos gargalos que historicamente afetavam o treinamento de IA em larga escala.

Além dos Números: Por Que Isso Importa Para o Desenvolvimento de IA

As implicações se estendem muito além de direitos de se gabar em um benchmark da indústria. Para laboratórios de IA e empresas que trabalham com modelos de ponta, a capacidade de treinar um modelo de base em menos de 30 minutos transforma os ciclos de desenvolvimento de semanas para dias.

"Quando seus tempos de treinamento caem de 12 horas para 27 minutos, tudo muda", explicou um pesquisador computacional familiarizado com implantações de IA em larga escala. "Você pode rodar dezenas de experimentos em um único dia, testar mais hipóteses e, em última análise, construir modelos melhores mais rapidamente do que os concorrentes que ainda esperam por resultados."

A conquista da CoreWeave é particularmente notável por sua escala — sua submissão utilizou um cluster 34 vezes maior do que qualquer outra entrada de provedor de nuvem no MLPerf. Isso demonstra não apenas capacidade técnica, mas também prontidão operacional para suportar as cargas de trabalho de IA mais exigentes em um momento em que o acesso a recursos de computação avançados permanece restrito em toda a indústria.

A Equação Econômica: Redefinindo o Custo Total de Propriedade da IA

Os ganhos de desempenho se traduzem diretamente em implicações financeiras. A análise da indústria sugere que o treinamento de um modelo de 405 bilhões de parâmetros na infraestrutura da CoreWeave custaria aproximadamente entre US$ 350.000 e US$ 420.000 — cerca de 30-40% menos do que execuções comparáveis em outras plataformas, que podem ultrapassar US$ 600.000.

Para startups focadas em IA operando com financiamento limitado, essa diferença de custo pode determinar se projetos ambiciosos avançam ou permanecem teóricos. Para empresas estabelecidas, representa milhões em economias potenciais para iniciativas de IA em larga escala.

"A economia aqui é convincente", observou um investidor de capital de risco especializado em startups de IA. "Quando você leva em conta tanto a economia de custos diretos quanto a vantagem competitiva de ciclos de desenvolvimento mais rápidos, a oferta da CoreWeave se torna transformadora para certos segmentos do mercado."

A Arquitetura Técnica Por Trás da Conquista

O desempenho recorde da CoreWeave se baseia em várias inovações técnicas:

Os superchips GB200 Grace Blackwell representam a última geração de aceleradores de IA da NVIDIA, combinando poderosos núcleos de GPU com CPUs Grace baseadas em ARM e unidades de processamento de dados especializadas no mesmo pacote.

Ao contrário dos racks de GPU tradicionais que exigem CPUs de host separadas para transferir dados entre as unidades de processamento, o design integrado do GB200 elimina este gargalo. A configuração NVL72 estende essa vantagem criando domínios unificados de 72 GPUs com conexões diretas de alta velocidade entre elas.

"O que torna essa arquitetura especial é como ela aborda a movimentação de dados, que sempre foi o calcanhar de Aquiles do treinamento de IA distribuído", explicou um especialista em infraestrutura de uma grande universidade de pesquisa. "Ao integrar CPUs diretamente e expandir o domínio NVLink para 72 GPUs, eles eliminaram várias camadas de indireção que tipicamente criam ineficiências de escalonamento."

A contribuição da IBM, embora menos detalhada em materiais públicos, provavelmente abrange o design crítico em nível de sistema, incluindo gerenciamento térmico, distribuição de energia e malhas de rede capazes de sustentar os enormes fluxos de dados necessários.

Posicionamento de Mercado: Onde a CoreWeave se Encaixa no Cenário Competitivo

A conquista posiciona a CoreWeave como uma alternativa especializada aos provedores de nuvem hiperescaláveis como AWS, Google Cloud e Microsoft Azure — todos os quais oferecem suas próprias opções de computação de alto desempenho (HPC) para cargas de trabalho de IA.

Os Google TPU v5 Pods, as instâncias EC2 P5 da AWS e o recentemente anunciado CryoPod da Microsoft representam os concorrentes mais próximos, mas nenhum demonstrou publicamente desempenho comparável nesta escala para os benchmarks MLPerf v5.0.

"A corrida pela supremacia computacional de IA tem múltiplas frentes", observou um analista de infraestrutura de nuvem. "Os hiperescaladores têm recursos enormes, mas a abordagem focada da CoreWeave e o acesso antecipado à arquitetura Blackwell lhes deram uma vantagem temporária neste segmento específico de ponta."

Essa vantagem pode ser temporária — AWS, Google e Microsoft têm acesso à mesma tecnologia NVIDIA subjacente e vastos recursos para implantá-la. No entanto, para os próximos trimestres críticos, a CoreWeave parece ter estabelecido uma liderança significativa na capacidade de treinamento de LLM em ultra-escala.

O Caminho à Frente: Desafios e Oportunidades

Embora a conquista da CoreWeave represente um marco significativo, vários desafios permanecem para as organizações que buscam alavancar essa tecnologia:

A preparação de dados e a eficiência do pipeline tornam-se cada vez mais críticas quando o processamento de GPU acelera a este grau. Mesmo pequenos gargalos na alimentação de dados podem reduzir substancialmente os benefícios reais das capacidades de treinamento mais rápidas.

A complexidade do software permanece substancial, exigindo experiência especializada para explorar totalmente o treinamento distribuído em milhares de GPUs. Muitas organizações carecem do talento interno para otimizar nesta escala sem suporte adicional.

A disponibilidade e os prazos de provisionamento determinarão quantas organizações podem realmente acessar essa capacidade. A CoreWeave afirma ter inventário suficiente para alocar milhares de GPUs em 24 horas — um contraste marcante com as listas de espera de vários meses relatadas em alguns hiperescaladores — mas a disponibilidade sustentada nesta escala ainda precisa ser comprovada.

Perspectiva de Investimento: Implicações para o Mercado de Infraestrutura de IA

Para investidores que observam o espaço da infraestrutura de IA, a demonstração da CoreWeave destaca várias tendências-chave:

O mercado para provedores de nuvem de IA especializados parece estar se consolidando ao lado dos hiperescaladores estabelecidos, sugerindo uma bifurcação entre a computação em nuvem de propósito geral e a infraestrutura de IA especializada.

A posição dominante da NVIDIA em aceleradores de IA continua, apesar dos concorrentes emergentes de Cerebras, Graphcore e Habana Labs. A vantagem de desempenho da arquitetura GB200 reforça a liderança tecnológica da NVIDIA, embora as restrições de fornecimento permaneçam um fator de mercado significativo.

O mercado endereçável total (TAM) para treinamento de IA em ultra-escala (modelos de 100 bilhões de parâmetros ou mais) é estimado em US$ 2-3 bilhões anualmente e está crescendo rapidamente, representando um dos segmentos de maior margem dentro do mercado de infraestrutura de IA de US$ 50 bilhões.

Organizações com iniciativas substanciais de IA podem precisar adotar estratégias multi-nuvem, aproveitando provedores especializados como a CoreWeave para cargas de trabalho de alto desempenho específicas, enquanto mantêm relações com hiperescaladores para necessidades de computação mais amplas.

O Que Isso Significa para o Desenvolvimento de IA

A demonstração da CoreWeave sugere que entramos no que alguns chamam de "pista expressa de IA" para o desenvolvimento de modelos de base, onde o gargalo de longas execuções de treinamento é substancialmente reduzido para aqueles com acesso à infraestrutura de ponta.

Para equipes de IA corporativas que trabalham com modelos grandes, as novas capacidades merecem séria consideração, particularmente para projetos envolvendo modelos na faixa de 100 a 500 bilhões de parâmetros. Mesmo o acesso ocasional a tais recursos poderia acelerar significativamente os ciclos de desenvolvimento.

Organizações menores e equipes de pesquisa ainda podem encontrar clusters de GPU tradicionais mais econômicos para o trabalho diário, reservando recursos de ultra-escala para marcos específicos ou demonstrações de prova de conceito.

À medida que o cenário da infraestrutura continua a evoluir, com novas tecnologias de aceleradores e otimizações de software surgindo regularmente, o ritmo da inovação no desenvolvimento de IA parece pronto para acelerar ainda mais.

Por enquanto, a conquista da CoreWeave serve como um marco para o que é possível — e um sinal de que a corrida pela infraestrutura de IA permanece tão dinâmica e consequente quanto os próprios algoritmos de IA.

Você Também Pode Gostar

Este artigo foi enviado por nosso usuário sob as Regras e Diretrizes para Submissão de Notícias. A foto de capa é uma arte gerada por computador apenas para fins ilustrativos; não indicativa de conteúdo factual. Se você acredita que este artigo viola direitos autorais, não hesite em denunciá-lo enviando um e-mail para nós. Sua vigilância e cooperação são inestimáveis para nos ajudar a manter uma comunidade respeitosa e em conformidade legal.

Inscreva-se na Nossa Newsletter

Receba as últimas novidades em negócios e tecnologia com uma prévia exclusiva das nossas novas ofertas

Utilizamos cookies em nosso site para habilitar certas funções, fornecer informações mais relevantes para você e otimizar sua experiência em nosso site. Mais informações podem ser encontradas em nossa Política de Privacidade e em nossos Termos de Serviço . Informações obrigatórias podem ser encontradas no aviso legal