A Google passou mais de uma década a construir silenciosamente a tecnologia que agora a está a ajudar a superar-se na guerra da IA.
Enquanto a Nvidia está no topo da cadeia alimentar, vendendo as suas GPUs para praticamente todas as grandes empresas de tecnologia do mundo, a Google tem estado ocupada a desenhar as suas próprias armas; chips que nunca pretendeu vender, mas que usa para alimentar tudo o que está por trás da sua infraestrutura de IA.
E agora, com a procura por computação num novo recorde histórico, esse silício interno está finalmente a mostrar o seu valor.
Na quinta-feira, a Google confirmou que o Ironwood, a mais recente geração da sua Unidade de Processamento Tensor (TPU), estará disponível nas próximas semanas. É o chip de sétima geração da empresa, construído para lidar com tudo, desde o treino de modelos enormes até à execução de Agentes de IA em tempo real e chatbots.
O Ironwood, diz a Google, é mais de quatro vezes mais rápido que o TPU anterior. Um cliente, a Anthropic, planeia implementar até 1 milhão deles para alimentar o seu modelo Claude.
Embora a Google continue a acumular GPUs da Nvidia, não está apenas sentada a depender dos chips de outras pessoas. As TPUs estão em desenvolvimento há mais de dez anos e tornaram-se disponíveis para clientes na nuvem em 2018.
Originalmente usadas apenas para cargas de trabalho internas, são agora uma parte central da infraestrutura pública de IA na nuvem da Google.
O analista Stacy Rasgon da Bernstein disse: "Dos fabricantes de ASIC, a Google é a única que realmente implementou isto em grandes volumes."
De momento, a Google não vende TPUs como hardware físico. Em vez disso, os clientes alugam acesso através da Google Cloud, que se tornou um dos maiores motores de receita da empresa.
No último trimestre, a Alphabet reportou 15,15 mil milhões de dólares em receitas na nuvem, um aumento de 34% em relação ao ano anterior. Sundar Pichai, CEO da empresa, disse aos investidores: "Estamos a ver uma procura substancial pelos nossos produtos de infraestrutura de IA, incluindo soluções baseadas em TPU e GPU."
Com a pressão crescente no setor tecnológico para obter acesso à computação, a Google está a garantir parcerias monstruosas. No mês passado, a empresa expandiu a sua parceria com a Anthropic num acordo que supostamente vale dezenas de milhares de milhões.
Esse acordo dará à Anthropic acesso a mais de um gigawatt de capacidade de computação de IA até 2026.
A Google investiu 3 mil milhões de dólares na Anthropic até agora. Embora a Amazon continue a ser o principal parceiro de nuvem da empresa, a Google está agora a fornecer a infraestrutura principal para os futuros modelos Claude. O Diretor de Produto da Anthropic, Mike Krieger, disse:
"Há tanta procura pelos nossos modelos que acho que a única forma de termos conseguido servir tanto quanto conseguimos este ano é esta estratégia multi-chip."
Essa estratégia inclui TPUs, Trainium e GPUs da Nvidia, e é construída para desempenho, custo e backup. Krieger acrescentou que a sua equipa fez trabalho preparatório inicial para garantir que o Claude pudesse funcionar sem problemas em todos os principais tipos de chips.
"Vi esse investimento compensar agora que somos capazes de ficar online com estes enormes centros de dados e atender os clientes onde eles estão", disse ele.
Dois meses antes do acordo com a Anthropic, a Google assinou um contrato de nuvem de seis anos no valor de mais de 10 mil milhões de dólares com a Meta. A empresa também conseguiu uma parte do negócio da OpenAI à medida que esta se diversifica para além da Microsoft. A OpenAI confirmou à Reuters que está a usar a Google Cloud, mas não está a implementar GPUs lá.
Esta semana, a Google revelou um novo projeto chamado Suncatcher, destinado a lançar satélites alimentados por energia solar equipados com TPUs. O objetivo é construir um sistema que aproveite a energia solar no espaço para alimentar tarefas de IA com uso intensivo de computação.
A empresa disse que planeia lançar dois protótipos até o início de 2027, chamando a experiência de uma forma de minimizar a pressão sobre os recursos da Terra enquanto se prepara para computação em larga escala em órbita.
Anat Ashkenazi, CFO da Alphabet, disse que o impulso do proprietário da Google vem da enorme procura empresarial pela sua infraestrutura completa de IA, incluindo tanto TPUs como GPUs.
A Alphabet agora relata que assinou mais contratos de nuvem de mil milhões de dólares nos primeiros nove meses de 2025 do que nos dois anos anteriores combinados.
Enquanto isso, a unidade de nuvem da Amazon cresceu 20% no último trimestre. O CEO da AWS, Matt Garman, disse: "Cada chip Trainium 2 que colocamos nos nossos centros de dados hoje está a ser vendido e usado." Ele acrescentou que o Trainium 3 traria ainda mais ganhos em desempenho e eficiência energética.
Ainda assim, a Google está a apostar tudo. Aumentou a sua previsão de despesas de capital para 2025 para 93 mil milhões de dólares, acima dos 85 mil milhões, com ainda mais gastos alinhados para 2026. As suas ações subiram 38% no terceiro trimestre e mais 17% no quarto trimestre, o seu período mais forte em duas décadas.
Analistas da Mizuho apontaram para a vantagem de custo e desempenho das TPUs, observando que, embora originalmente fossem para uso interno, a Google está agora a ganhar tração real com clientes externos. A Morgan Stanley também disse num relatório de junho que a familiaridade com TPUs entre os desenvolvedores poderia ser um grande impulso para o crescimento da Google Cloud.
E num relatório de setembro, analistas da D.A. Davidson escreveram: "Continuamos a acreditar que as TPUs da Google permanecem a melhor alternativa à Nvidia, com a diferença entre as duas a diminuir significativamente nos últimos 9-12 meses."
Eles também mencionaram o aumento do sentimento positivo entre os desenvolvedores e sugeriram que a Google poderia até começar a vender sistemas TPU diretamente para laboratórios de IA.
Se está a ler isto, já está à frente. Mantenha-se aí com a nossa newsletter.


