A Microsoft apresentou um novo chip de inteligência artificial chamado Maia 200 que visa cargas de trabalho de computação nuvem. O chip chega dois anos após a Microsoft ter revelado o seu primeiro chip de IA, o Maia 100, que nunca ficou amplamente disponível para clientes de nuvem. A empresa afirmou que o Maia 200 chegará a mais clientes e proporcionará maior disponibilidade no futuro.
A Microsoft anunciou que o Maia 200 poderá servir como alternativa aos processadores da Nvidia, Trainium da Amazon e TPUs da Google. Scott Guthrie, vice-presidente executivo da Microsoft para nuvem e IA, afirmou que o Maia 200 traz "maior disponibilidade para clientes no futuro". A Microsoft declarou que o Maia 200 representa o seu sistema de inferência mais eficiente implementado até à data.
Programadores, académicos e laboratórios de IA podem candidatar-se a uma pré-visualização do kit de desenvolvimento de software Maia 200. A pré-visualização oferece acesso antecipado a ferramentas para construir e otimizar cargas de trabalho de IA no novo chip. A Microsoft afirmou que a pré-visualização ampliará a experimentação em modelos de IA de código aberto e casos de uso empresariais.
A Microsoft declarou que a sua equipa de superinteligência, liderada por Mustafa Suleyman, utilizará o Maia 200 para cargas de trabalho internas e de clientes. A empresa também confirmou que o Microsoft 365 Copilot e o Microsoft Foundry funcionarão no novo chip. Estes serviços incluem complementos de software de produtividade e estruturas para construção sobre modelos de IA de grande escala.
Os fornecedores de nuvem enfrentam uma procura crescente por parte de programadores de modelos de IA como Anthropic e OpenAI, afirmou a Microsoft. Os operadores de centros de dados procuram maior poder de computação enquanto gerem restrições energéticas e de custos. Neste ambiente competitivo, as empresas procuram equilibrar o desempenho face às despesas operacionais e ao uso de energia.
A Microsoft afirmou que os chips Maia 200 utilizam o processo de 3 nanómetros da Taiwan Semiconductor Manufacturing Co. A empresa declarou que coloca quatro chips Maia 200 dentro de cada servidor, interligados para maior capacidade de processamento. A Microsoft explicou que o design utiliza cabos Ethernet em vez do padrão InfiniBand visto nas instalações da Nvidia.
A empresa declarou que o Maia 200 oferece um desempenho 30 por cento superior em pontos de preço equivalentes comparado com alternativas. A Microsoft afirmou que cada Maia 200 inclui mais memória de alta largura de banda do que o Trainium da AWS ou as TPUs de sétima geração da Google. Este design arquitetónico visa suportar cargas de trabalho de inferência de modelos em grande escala.
A Microsoft também afirmou que pode ligar até 6.144 chips Maia 200 para escalar o desempenho ainda mais. A empresa alegou que esta abordagem ajuda a reduzir o uso de energia e o custo total de propriedade. A Microsoft demonstrou anteriormente que o Maia 100 poderia executar o GitHub Copilot em 2023.
A Microsoft afirmou que implementará os chips Maia 200 primeiro na sua região de centro de dados EUA Central. A empresa declarou que os chips chegarão posteriormente à região EUA Oeste 3. Implementações globais adicionais seguirão estas implementações iniciais.
A publicação Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilities apareceu primeiro em Blockonomi.


