BitcoinWorld
Google AI Chips Unleashed: Lançamento dos TPU 8t e 8i para desafiar a dominância da Nvidia
Numa jogada estratégica para capturar uma maior fatia do florescente mercado de inteligência artificial, o Google Cloud anunciou o lançamento dos seus chips de IA personalizados de oitava geração na quarta-feira, 30 de abril, em São Francisco, CA. A empresa revelou uma abordagem bifurcada, apresentando dois chips especializados: o TPU 8t para treino de modelos de IA e o TPU 8i para cargas de trabalho de inferência. Este desenvolvimento sinaliza o impulso mais significativo do Google até à data para oferecer às empresas uma alternativa poderosa e económica às GPUs padrão da indústria da Nvidia, embora o gigante das pesquisas afirme que a sua parceria com o líder de chips é mais sólida do que nunca.
A decisão do Google de dividir a sua Unidade de Processamento de Tensores (TPU) de oitava geração em dois modelos distintos representa uma grande evolução na sua estratégia de hardware. Historicamente, as TPUs tratavam tanto do treino como da inferência, mas a procura explosiva por computação de IA especializada impulsionou esta mudança arquitetural. O TPU 8t foi concebido especificamente para o processo computacionalmente intensivo de treino de grandes modelos de linguagem e outros sistemas de IA. Por sua vez, o TPU 8i está otimizado para inferência, que é o processo contínuo de execução de modelos treinados para gerar respostas a pedidos dos utilizadores.
De acordo com os benchmarks de desempenho do Google, os novos chips apresentam melhorias substanciais em relação aos seus antecessores. A empresa afirma que o TPU 8t oferece até 3x mais velocidade no treino de modelos de IA e um desempenho 80% melhor por dólar. Além disso, a engenharia do Google permite agora que mais de um milhão de TPUs trabalhem em conjunto num único e massivo cluster. Esta escala permite o treino de modelos de fronteira de próxima geração que anteriormente eram inviáveis. O resultado para os clientes de cloud é significativamente mais poder computacional com menor consumo de energia e custo.
O anúncio do Google coloca-o firmemente dentro da tendência mais ampla dos principais fornecedores de cloud que desenvolvem silício personalizado. A Amazon Web Services (AWS) tem os seus chips Graviton e Trainium, enquanto a Microsoft Azure está a desenvolver os seus aceleradores Maia. Este movimento, frequentemente denominado "corrida aos chips de hyperscaler", é impulsionado pelo desejo de um maior controlo sobre a cadeia de abastecimento, otimização de desempenho para pilhas de software específicas e melhores margens de custo. No entanto, os analistas alertam que isto não é um jogo de soma zero contra a Nvidia.
"A narrativa dos 'hyperscalers vs. Nvidia' é frequentemente exagerada", explica Patrick Moore, um reconhecido analista do mercado de chips. "Estas empresas estão a construir capacidade suplementar e a otimizar para os seus próprios ecossistemas. Não pretendem substituir totalmente a Nvidia, especialmente a curto prazo." Moore previu com notoriedade em 2016 que a primeira TPU do Google poderia ameaçar a Nvidia e a Intel, uma previsão que se revelou prematura, já que a capitalização de mercado da Nvidia desde então disparou para quase 5 biliões de dólares. A realidade atual é mais simbiótica. O Google, por exemplo, confirmou que irá oferecer o próximo chip Vera Rubin da Nvidia na sua cloud ainda este ano.
De facto, o Google enfatiza a sua colaboração contínua com a Nvidia. Os dois gigantes tecnológicos estão a desenvolver conjuntamente soluções de redes informáticas para tornar os sistemas baseados em Nvidia mais eficientes na infraestrutura do Google Cloud. Um projeto-chave envolve a melhoria do Falcon, uma tecnologia de rede baseada em software que o Google criou e tornou open-source em 2023. Esta colaboração sublinha uma perceção crítica da indústria: o crescimento dos serviços de cloud de IA expande o mercado total endereçável para todo o silício de alto desempenho, quer ostente a marca da Nvidia ou de um fornecedor de cloud.
A lógica financeira é clara. À medida que as empresas migram cada vez mais as suas cargas de trabalho de IA para a cloud, a procura por computação explode. Os fornecedores de cloud podem então direcionar determinadas cargas de trabalho otimizadas para os seus chips personalizados, enquanto oferecem a ampla compatibilidade das GPUs da Nvidia para outras. Este modelo híbrido permite-lhes melhorar a rentabilidade em algumas cargas de trabalho, mantendo a total liberdade de escolha do cliente. Para a Nvidia, cada nova aplicação de IA alojada no Google Cloud representa um potencial cliente para o seu equipamento de rede, licenças de software e, em muitos casos, as suas GPUs.
As especificações técnicas das novas TPUs do Google sugerem um estreitamento da diferença de desempenho em relação às GPUs de topo de gama. O foco no desempenho por dólar e na eficiência energética aborda dois dos principais pontos problemáticos para as empresas que escalam a IA: custos crescentes e impacto ambiental. A capacidade do Google de ligar mais de um milhão de TPUs também desafia diretamente uma das principais vantagens da Nvidia — a sua tecnologia NVLink líder de mercado para ligar um grande número de GPUs.
Principais vantagens das novas TPUs do Google:
No entanto, o ecossistema da Nvidia, em particular a sua plataforma de software CUDA, continua a ser uma vantagem formidável. Milhões de programadores de IA são formados em CUDA e inúmeras aplicações foram construídas para esta plataforma. Embora os chips do Google executem frameworks populares, a eventual necessidade de portar aplicações cria fricção. A batalha a longo prazo pode ser menos sobre a velocidade bruta dos transístores e mais sobre qual a plataforma que oferece a solução total mais convincente para programadores e empresas.
O lançamento dos TPU 8t e TPU 8i pelo Google marca um momento fulcral na evolução da infraestrutura de IA. Demonstra o sério compromisso da empresa em competir no arena de hardware de IA de alto risco, oferecendo às empresas novos e poderosos chips de IA do Google para tarefas especializadas. No entanto, o anúncio também reforça a natureza complexa e colaborativa da indústria de semicondutores moderna. Em vez de um ataque frontal, o Google está a executar uma estratégia sofisticada de duplo caminho: avançar o seu silício proprietário enquanto aprofunda a sua parceria com a Nvidia. Esta abordagem garante que o Google Cloud pode atender ao mais amplo leque possível de cargas de trabalho de IA, desde as otimizadas para as suas TPUs personalizadas até às que requerem o padrão universal das GPUs da Nvidia. Os vencedores finais serão provavelmente as empresas, que beneficiarão de maior concorrência, mais escolhas e inovação contínua em desempenho e custo.
Q1: Qual é a diferença entre os chips TPU 8t e TPU 8i do Google?
O TPU 8t foi concebido especificamente para o treino de modelos de IA — o processo de ensinar um modelo utilizando vastos conjuntos de dados. O TPU 8i está otimizado para inferência, que é o processo de utilizar um modelo treinado para fazer previsões ou gerar respostas em tempo real.
Q2: O Google Cloud vai deixar de oferecer GPUs da Nvidia?
Não. O Google declarou explicitamente que não está a substituir a Nvidia. A empresa confirmou que irá oferecer as GPUs Vera Rubin de próxima geração da Nvidia na sua cloud ainda este ano e está a colaborar ativamente com a Nvidia em tecnologia de rede.
Q3: Como se comparam os novos chips de IA do Google com as versões anteriores de TPU?
O Google afirma que as novas TPUs de oitava geração oferecem velocidades de treino até 3x mais rápidas e uma melhoria de 80% no desempenho por dólar em comparação com as gerações anteriores. Suportam também clusters de mais de um milhão de chips, permitindo o treino de modelos em maior escala.
Q4: Por que razão os fornecedores de cloud como o Google estão a desenvolver os seus próprios chips de IA?
Os fornecedores de cloud desenvolvem silício personalizado para otimizar o desempenho para o seu software e serviços específicos, obter maior controlo sobre a sua cadeia de abastecimento, melhorar a eficiência de custos e diferenciar as suas ofertas num mercado competitivo.
Q5: O que significa isto para o futuro da Nvidia?
Embora os chips personalizados dos hyperscalers representem concorrência, o crescimento global do mercado de IA está a expandir a procura por toda a computação de alto desempenho. O robusto ecossistema de software da Nvidia (CUDA) e a inovação contínua significam que esta deverá continuar a ser uma força dominante, mesmo enquanto colabora com empresas que constroem silício alternativo.
This post Google AI Chips Unleashed: TPU 8t and 8i Launch to Challenge Nvidia's Dominance first appeared on BitcoinWorld.


