TLDR A Microsoft lançou o chip Maia 200 para suportar tarefas de IA na nuvem exigentes e competir com os chips da Nvidia, AWS e Google. O Maia 200 oferece um desempenho 30% melhorTLDR A Microsoft lançou o chip Maia 200 para suportar tarefas de IA na nuvem exigentes e competir com os chips da Nvidia, AWS e Google. O Maia 200 oferece um desempenho 30% melhor

Microsoft Apresenta Chip de IA de Segunda Geração para Fortalecer Capacidades na Nuvem

2026/01/27 01:33
Leu 4 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

TLDR

  • A Microsoft lançou o chip Maia 200 para suportar tarefas exigentes de IA na nuvem e competir com os chips da Nvidia, AWS e Google.
  • O Maia 200 oferece um desempenho 30% melhor ao mesmo custo e utiliza um processo de 3nm para potência e velocidade otimizadas.
  • A Microsoft instalará primeiro o Maia 200 em centros de dados dos EUA Central, seguidos pelos EUA Oeste 3 e outras localizações globais.
  • Um kit de desenvolvimento de software de pré-visualização está disponível para programadores, investigadores e laboratórios que trabalham com modelos de IA de código aberto.
  • O Maia 200 alimentará o Microsoft 365 Copilot, o Microsoft Foundry e equipas internas de superinteligência lideradas por Mustafa Suleyman.

A Microsoft apresentou um novo chip de inteligência artificial chamado Maia 200 que visa cargas de trabalho de computação nuvem. O chip chega dois anos após a Microsoft ter revelado o seu primeiro chip de IA, o Maia 100, que nunca ficou amplamente disponível para clientes de nuvem. A empresa afirmou que o Maia 200 chegará a mais clientes e proporcionará maior disponibilidade no futuro.

O Maia 200 Pretende Competir no Mercado de Processadores de IA na Nuvem

A Microsoft anunciou que o Maia 200 poderá servir como alternativa aos processadores da Nvidia, Trainium da Amazon e TPUs da Google. Scott Guthrie, vice-presidente executivo da Microsoft para nuvem e IA, afirmou que o Maia 200 traz "maior disponibilidade para clientes no futuro". A Microsoft declarou que o Maia 200 representa o seu sistema de inferência mais eficiente implementado até à data.

Programadores, académicos e laboratórios de IA podem candidatar-se a uma pré-visualização do kit de desenvolvimento de software Maia 200. A pré-visualização oferece acesso antecipado a ferramentas para construir e otimizar cargas de trabalho de IA no novo chip. A Microsoft afirmou que a pré-visualização ampliará a experimentação em modelos de IA de código aberto e casos de uso empresariais.

A Microsoft declarou que a sua equipa de superinteligência, liderada por Mustafa Suleyman, utilizará o Maia 200 para cargas de trabalho internas e de clientes. A empresa também confirmou que o Microsoft 365 Copilot e o Microsoft Foundry funcionarão no novo chip. Estes serviços incluem complementos de software de produtividade e estruturas para construção sobre modelos de IA de grande escala.

Os fornecedores de nuvem enfrentam uma procura crescente por parte de programadores de modelos de IA como Anthropic e OpenAI, afirmou a Microsoft. Os operadores de centros de dados procuram maior poder de computação enquanto gerem restrições energéticas e de custos. Neste ambiente competitivo, as empresas procuram equilibrar o desempenho face às despesas operacionais e ao uso de energia.

Detalhes Técnicos e Planos de Implementação dos Chips Maia 200

A Microsoft afirmou que os chips Maia 200 utilizam o processo de 3 nanómetros da Taiwan Semiconductor Manufacturing Co. A empresa declarou que coloca quatro chips Maia 200 dentro de cada servidor, interligados para maior capacidade de processamento. A Microsoft explicou que o design utiliza cabos Ethernet em vez do padrão InfiniBand visto nas instalações da Nvidia.

A empresa declarou que o Maia 200 oferece um desempenho 30 por cento superior em pontos de preço equivalentes comparado com alternativas. A Microsoft afirmou que cada Maia 200 inclui mais memória de alta largura de banda do que o Trainium da AWS ou as TPUs de sétima geração da Google. Este design arquitetónico visa suportar cargas de trabalho de inferência de modelos em grande escala.

A Microsoft também afirmou que pode ligar até 6.144 chips Maia 200 para escalar o desempenho ainda mais. A empresa alegou que esta abordagem ajuda a reduzir o uso de energia e o custo total de propriedade. A Microsoft demonstrou anteriormente que o Maia 100 poderia executar o GitHub Copilot em 2023.

A Microsoft afirmou que implementará os chips Maia 200 primeiro na sua região de centro de dados EUA Central. A empresa declarou que os chips chegarão posteriormente à região EUA Oeste 3. Implementações globais adicionais seguirão estas implementações iniciais.

A publicação Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilities apareceu primeiro em Blockonomi.

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

Role os dados e ganhe até 1 BTC

Role os dados e ganhe até 1 BTCRole os dados e ganhe até 1 BTC

Convide amigos e divida 500,000 USDT!