AMD Lança Novos Chips de IA com Mais Memória que a Nvidia para Alimentar Sistemas de IA de Próxima Geração

Por
Amanda Zhang
8 min de leitura

AMD Quebra o Teto de Memória da Nvidia em Batalha Acirrada por Chips de IA

Em Duelo no Vale do Silício, Aposta da AMD em 288 GB de Memória Redefine Cenário de Hardware de IA

Em um desafio direto ao domínio de longa data da Nvidia na computação de inteligência artificial, a AMD revelou sua linha de hardware de IA mais ambiciosa até agora, encabeçada por chips que superam o líder do setor em uma especificação crucial: capacidade de memória. Em seu evento "Advancing AI 2025" em San Jose esta semana, a AMD apresentou a série Instinct MI350, com inéditos 288 GB de memória de alta largura de banda – 50% a mais do que os chips Blackwell de ponta da Nvidia – potencialmente remodelando a dinâmica competitiva no mercado de aceleradores de IA de US$ 150 bilhões.

Lisa Su (gstatic.com)
Lisa Su (gstatic.com)

"Quando vocês inicialmente começaram a compartilhar as especificações, eu achei inacreditável; parecia totalmente insano. Vai ser um avanço extraordinário", disse Sam Altman, CEO da OpenAI, durante o evento, ressaltando a importância da realização técnica da AMD.

Ficha Técnica dos Novos Produtos de IA da AMD

Nome/Série do ProdutoEspecificações e Recursos PrincipaisDestaques de DesempenhoDisponibilidade / Lançamento
Série Instinct MI350 (MI350X e MI355X)- Arquitetura: CDNA 4, nó TSMC N3P
- Memória: Até 288 GB HBM3E
- Largura de banda: 8 TB/s
- Refrigeração: Por ar (até 64 GPUs/rack) e Por líquido (até 128 GPUs/rack)
- Até 4x o desempenho de computação de IA e 35x o desempenho de inferência em relação à geração anterior
- Até 2,6 exaFLOPS (FP4) em uma configuração de rack
- 40% mais tokens por dólar do que o Nvidia Blackwell B200 (em inferência FP4)
T3 2025 (envio)
Série MI400/450 (Prévia)- Memória: Até 432 GB HBM4
- Plataforma: Será a base da plataforma em escala de rack "Helios"
- Concorrência: Competirá com as plataformas Rubin/Vera Rubin da Nvidia
- Espera-se que entregue até 10x o desempenho de inferência em modelos Mixture of Experts (MoE) em comparação com a série MI3502026
Rack Helios AI- Componentes: Integra até 72 GPUs, CPUs Zen 6 EPYC e um novo chip de rede Vulcano
- Design: Motor de computação unificado em rack completo, refrigerado a líquido, para IA de hiperescala
- O desempenho é baseado em seus componentes integrados (série MI400/450)2026
ROCm 7.0 Software Stack- Visa criar um ecossistema de IA aberto para competir com o CUDA
- Possui um shim CUDA-thunk para recompilar 72% dos projetos CUDA de código aberto "prontos para uso"
- Oferece mais de 4x melhoria no desempenho de inferência e 3x no treinamento em relação ao ROCm 6.0Disponível Agora
Developer Cloud- Um novo serviço de nuvem fornecendo aos desenvolvedores acesso instantâneo às GPUs mais recentes da AMD
- Espelha o serviço DGX Cloud Lepton da Nvidia
- (N/A - uma plataforma de acesso)Disponível Agora

Avanço na Memória Visa o Gargalo da IA

A série Instinct MI350, construída sobre a nova arquitetura CDNA 4 da AMD e o avançado processo de fabricação N3P da TSMC, representa o primeiro produto da empresa com restrição de capacidade que supera claramente a Nvidia em uma especificação de destaque. Com 288 GB de memória HBM3E e 8 TB/s de largura de banda por chip, o MI350 aborda o que se tornou a principal restrição na execução de modelos de linguagem grandes e modernos: capacidade de memória.

Para aplicações de IA, particularmente cargas de trabalho de inferência envolvendo modelos com bilhões de parâmetros, essa vantagem de memória se traduz em ganhos de desempenho tangíveis. Os primeiros benchmarks sugerem que o MI350 pode entregar aproximadamente 40% mais tokens por dólar do que o Blackwell B200 da Nvidia com precisão FP4, principalmente devido à sua eficiência de memória, e não ao poder computacional bruto.

"Este é o momento em que a estratégia de IA da AMD finalmente se cristaliza", disse um analista sênior da indústria que pediu anonimato. "A capacidade de memória do MI350 não é apenas uma vitória na folha de especificações – ela muda fundamentalmente o que é possível para a inferência de LLM em escala."

Os chips estarão disponíveis tanto em configurações refrigeradas a ar, suportando até 64 GPUs por rack, quanto em variantes refrigeradas a líquido, permitindo até 128 GPUs por rack, com o potencial de entregar até 2,6 exaFLOPS de desempenho FP4. A AMD confirmou que a série MI350 será enviada no T3 de 2025, aproximadamente nove meses depois que a Nvidia começou a enviar sua arquitetura Blackwell.

Além do Chip: O Ataque Abrangente da AMD

Enquanto o MI350 representa a ofensiva de curto prazo da AMD, a estratégia de longo prazo da empresa parece ainda mais ambiciosa. A AMD apresentou uma prévia de seus chips da série MI400/450, programados para lançamento em 2026, que contarão com até 432 GB de memória HBM4 de próxima geração e serão a base da plataforma de IA em escala de rack "Helios" da empresa, projetada para implementações de hiperescala.

O Rack Helios AI – um sistema refrigerado a líquido que integra até 72 GPUs juntamente com CPUs Zen 6 EPYC e o novo chip de rede Vulcano da AMD – sinaliza a intenção da AMD de competir com a Nvidia no nível de sistema completo, e não apenas chip a chip. Essa abordagem em escala de rack espelha a estratégia Vera Rubin da Nvidia e visa os data centers de hiperescala que representam o maior e mais lucrativo segmento do mercado de hardware de IA.

A AMD também aprimorou significativamente seu ecossistema de software, lançando o ROCm 7.0, que oferece mais de 4x melhoria no desempenho de inferência e 3x no treinamento em relação ao seu predecessor. A empresa revelou um novo serviço de nuvem para desenvolvedores, fornecendo acesso instantâneo às suas GPUs mais recentes para desenvolvedores de IA, semelhante à oferta DGX Cloud Lepton da Nvidia.

Parcerias Estratégicas Validam o Impulso da AMD em IA

Grandes provedores de nuvem e empresas de IA já sinalizaram seu apoio ao novo hardware da AMD. A Oracle Cloud Infrastructure comprometeu-se a implementar clusters de mais de 131.000 chips MI355X, representando o maior pedido anunciado publicamente até o momento. A Meta está implementando o MI350 para inferência de modelo Llama, enquanto Microsoft e OpenAI aprofundaram suas colaborações com a AMD.

Essas parcerias são complementadas pela estratégia agressiva de aquisição da AMD, com a empresa adquirindo ou investindo em 25 startups relacionadas à IA no último ano. Aquisições notáveis incluem a fabricante de servidores ZT Systems, a equipe de chips Untether AI e talentos da startup de IA Lamini – todas com o objetivo de reforçar as capacidades de IA de ponta a ponta da AMD.

Resposta Medida de Wall Street

Apesar das realizações técnicas, a reação de Wall Street tem sido cautelosa. As ações da AMD caíram 2% após os anúncios, com as ações da Nvidia caindo 1,5%, refletindo o ceticismo dos investidores sobre a execução, e não sobre o roteiro tecnológico em si.

A AMD atualmente negocia a aproximadamente 9 vezes seu EBITDA projetado para 2026 – um desconto de 30% em relação ao múltiplo de 13x da Nvidia. Essa lacuna de valuation destaca as preocupações persistentes do mercado sobre a capacidade da AMD de superar restrições de fornecimento e desvantagens do ecossistema de software.

"As especificações são impressionantes, mas o software continua sendo o ponto fraco da AMD", observa um analista de semicondutores de um grande banco de investimento. "Até que o ROCm seja enviado com um tempo de execução de inferência plug-compatível, os clientes 'turnkey' continuarão a optar pela Nvidia por padrão."

Restrições da Cadeia de Suprimentos Podem Limitar o Impacto

O sucesso da estratégia de IA da AMD depende tanto da capacidade de fabricação quanto da proeza técnica. A capacidade de produção N3P da TSMC está sobrecarregada, com Apple, AMD e Qualcomm competindo por alocação. Fontes da indústria estimam que a AMD possa enviar aproximadamente 80.000 pacotes MI350 no segundo semestre de 2025 – representando apenas cerca de 11% dos recentes envios trimestrais de wafers Blackwell da Nvidia.

O fornecimento de memória HBM3E da SK Hynix e Samsung representa outro possível gargalo, potencialmente limitando a capacidade da AMD de capitalizar suas vantagens técnicas no curto prazo. Além disso, ao contrário das variantes Blackwell da Nvidia, o MI355X atualmente não possui uma versão legal para a China, cedendo efetivamente aproximadamente 18% do mercado para a Nvidia.

Perspectiva de Investimento: Opção Estratégica com Retornos Assimétricos

Para os investidores, o impulso da AMD em IA representa o que os analistas descrevem como uma "opção estratégica" com retornos potencialmente assimétricos. Mesmo ganhos modestos de participação de mercado poderiam impactar significativamente o desempenho financeiro da AMD, com modelos sugerindo uma receita incremental de GPU de US$ 5 bilhões no ano fiscal de 2026, se as restrições de fornecimento puderem ser superadas.

"O perfil risco-recompensa é atraente nas avaliações atuais", sugere um gestor de portfólio especializado em investimentos em semicondutores. "Se os volumes do MI350 superarem as restrições de fornecimento e o Helios for lançado no prazo, a AMD poderá ver seu desconto de valuation em relação à Nvidia diminuir pela metade nos próximos 18 meses."

Os principais catalisadores a serem monitorados incluem a teleconferência de resultados do T3 de 2025 da AMD, que fornecerá os primeiros números de receita conclusivos do MI350; o lançamento do software ROCm 7.1, esperado para novembro de 2025; as implementações iniciais de racks piloto Helios em data centers da Oracle e Meta; e os contratos de fornecimento de HBM4 no início de 2026.

Embora riscos significativos de execução permaneçam, os últimos anúncios da AMD estabelecem a empresa como um desafiante crível em aceleração de IA pela primeira vez. Para uma indústria acostumada à liderança incontestável da Nvidia, o surgimento de uma concorrência viável pode remodelar a dinâmica de preços e os ciclos de inovação em todo o ecossistema de hardware de IA.

Aviso Legal: Esta análise reflete informações disponíveis publicamente e não deve ser considerada um conselho de investimento. O desempenho passado não garante resultados futuros. Os investidores devem consultar assessores financeiros para orientação personalizada.

Você Também Pode Gostar

Este artigo foi enviado por nosso usuário sob as Regras e Diretrizes para Submissão de Notícias. A foto de capa é uma arte gerada por computador apenas para fins ilustrativos; não indicativa de conteúdo factual. Se você acredita que este artigo viola direitos autorais, não hesite em denunciá-lo enviando um e-mail para nós. Sua vigilância e cooperação são inestimáveis para nos ajudar a manter uma comunidade respeitosa e em conformidade legal.

Inscreva-se na Nossa Newsletter

Receba as últimas novidades em negócios e tecnologia com uma prévia exclusiva das nossas novas ofertas

Utilizamos cookies em nosso site para habilitar certas funções, fornecer informações mais relevantes para você e otimizar sua experiência em nosso site. Mais informações podem ser encontradas em nossa Política de Privacidade e em nossos Termos de Serviço . Informações obrigatórias podem ser encontradas no aviso legal