O CEO da Nvidia, Jensen Huang, moveu-se para acalmar investidores após surgirem relatórios de que a Meta poderia transferir uma parte substancial de suas cargas de trabalho de IA para as unidades de processamento tensorial (TPUs) do Google.
Falando em um evento recente, Huang enfatizou que a Nvidia continua a ocupar uma "posição única" no mercado global de semicondutores de IA, mesmo com a intensificação da pressão competitiva.
Huang descreveu o panorama de computação de IA como "extremamente grande" e complexo, sugerindo que mesmo se a Meta comprasse TPUs no valor de bilhões de dólares, a oportunidade restante para a Nvidia continua vasta.
Seus comentários seguem uma semana turbulenta para as ações da Nvidia, que caíram brevemente após relatórios de que Meta e Google estavam em discussões avançadas sobre um potencial acordo envolvendo os aceleradores de IA internos do Google. As ações da Nvidia recuperaram-se desde então.
O papel da Meta na intensificação da rivalidade de chips é difícil de ignorar. A empresa recentemente aumentou sua estimativa de despesas de capital para 2025 para US$70-72 bilhões, sinalizando investimentos ainda maiores em 2026. Grande parte desse gasto está vinculado à infraestrutura de computação para treinamento e inferência de IA em escala.
No entanto, o mercado respondeu com cautela apesar dos fortes ganhos da Meta. As ações caíram mais de 12% após o anúncio de gastos, com analistas questionando se tal investimento enorme gerará retornos proporcionais.
O Google, enquanto isso, está silenciosamente emergindo como um grande beneficiário das ambições de chip da Meta. A Alphabet relatou um impressionante salto de 34% ano a ano na receita do Google Cloud, atingindo US$15,15 bilhões no terceiro trimestre de 2025, crescimento amplamente ligado a serviços Impulsionados por IA. Se a Meta começar a comprar TPUs em massa, o negócio de infraestrutura em nuvem do Google poderá receber um impulso ainda maior.
Uma grande mudança em direção ao hardware do Google teria implicações muito além da Meta. A comunidade mais ampla de aprendizado de máquina depende fortemente do ecossistema CUDA da Nvidia, que alimenta a grande maioria das cargas de trabalho de IA atuais.
Ferramentas de código aberto como PyTorch/XLA fizeram progressos permitindo treinamento de modelos em TPUs com modificações mínimas de código. No entanto, engenheiros observam que abandonar o CUDA não é tão simples quanto apertar um interruptor. Fluxos de trabalho TPU exigem reatribuição cuidadosa de dispositivos e novas abordagens para execução de tensor preguiçoso, que enfileira operações de forma diferente dos pipelines GPU tradicionais.
Enquanto isso, uma onda de esforços cross-hardware está surgindo. A equipe PyTorch/XLA está transitando mais operações para kernels gerados por código, enquanto motores de inferência de alto rendimento como vLLM estão começando a oferecer suporte experimental a TPU. Isso abre a porta para provedores de nuvem oferecerem novas ferramentas de integração e pacotes de suporte, reduzindo o atrito para desenvolvedores dispostos a diversificar para além das GPUs da Nvidia.
Os rumores Meta-Google desta semana atingiram a Nvidia justamente quando a empresa estava defendendo sua avaliação de US$4,5 trilhões em meio ao escrutínio público. Um memorando circulado para analistas de ações e posteriormente compartilhado pela Bernstein abordou alegações de críticos proeminentes, incluindo o investidor Michael Burry, sobre acúmulos de inventário e riscos de pagamento de clientes.
A Nvidia contestou essas caracterizações, dizendo que os dados publicamente disponíveis não sustentam comparações com escândalos contábeis históricos. A empresa reconheceu, no entanto, que seus novos chips Blackwell vêm com margens brutas mais baixas e custos de garantia mais altos.
O post Nvidia CEO Downplays Threat as Meta–Google AI Chip Talks Intensify apareceu primeiro no CoinCentral.


