TLDR Microsoft lanceerde de Maia 200-chip om veeleisende cloud AI-taken te ondersteunen en te concurreren met Nvidia-, AWS- en Google-chips. De Maia 200 levert 30% betere prestatiesTLDR Microsoft lanceerde de Maia 200-chip om veeleisende cloud AI-taken te ondersteunen en te concurreren met Nvidia-, AWS- en Google-chips. De Maia 200 levert 30% betere prestaties

Microsoft presenteert tweede generatie AI-chip om cloudmogelijkheden te versterken

2026/01/27 01:33
3 min lezen
Voor feedback of opmerkingen over deze inhoud kun je contact met ons opnemen via crypto.news@mexc.com

TLDR

  • Microsoft lanceerde de Maia 200-chip om veeleisende cloud-AI-taken te ondersteunen en te concurreren met chips van Nvidia, AWS en Google.
  • De Maia 200 levert 30% betere prestaties tegen dezelfde kosten en maakt gebruik van een 3nm-proces voor geoptimaliseerd vermogen en snelheid.
  • Microsoft zal de Maia 200 eerst installeren in datacenters in U.S. Central, gevolgd door U.S. West 3 en andere wereldwijde locaties.
  • Een preview software development kit is beschikbaar voor ontwikkelaars, onderzoekers en labs die werken met open-source AI-modellen.
  • De Maia 200 zal Microsoft 365 Copilot, Microsoft Foundry en interne superintelligentieteams onder leiding van Mustafa Suleyman aandrijven.

Microsoft heeft een nieuwe kunstmatige intelligentiechip geïntroduceerd genaamd de Maia 200 die zich richt op cloud computing workloads. De chip komt twee jaar nadat Microsoft zijn eerste AI-chip, de Maia 100, onthulde, die nooit breed beschikbaar werd voor cloudklanten. Het bedrijf zei dat de Maia 200 meer klanten zal bereiken en in de toekomst breder beschikbaar zal zijn.

Maia 200 streeft naar concurrentie in de Cloud-AI-processormarkt

Microsoft kondigde aan dat de Maia 200 kan dienen als alternatief voor processors van Nvidia, Amazon's Trainium en Google's TPU's. Scott Guthrie, Microsoft's executive vice president voor cloud en AI, zei dat de Maia 200 "bredere beschikbaarheid voor klanten in de toekomst" brengt. Microsoft zei dat de Maia 200 het meest efficiënte inferentiesysteem vertegenwoordigt dat tot nu toe is ingezet.

Ontwikkelaars, academici en AI-labs kunnen zich aanmelden voor een preview van de Maia 200 software development kit. De preview biedt vroege toegang tot tools voor het bouwen en optimaliseren van AI-workloads op de nieuwe chip. Microsoft zei dat de preview experimentatie met open source AI-modellen en zakelijke gebruikscases zal verbreden.

Microsoft zei dat zijn superintelligentieteam, geleid door Mustafa Suleyman, de Maia 200 zal gebruiken voor interne en klant-workloads. Het bedrijf bevestigde ook dat Microsoft 365 Copilot en Microsoft Foundry op de nieuwe chip zullen draaien. Deze diensten omvatten productiviteitssoftware add-ons en frameworks voor het bouwen bovenop grote AI-modellen.

Cloudproviders worden geconfronteerd met groeiende vraag van AI-modelontwikkelaars zoals Anthropic en OpenAI, aldus Microsoft. Datacenterbeheerders zoeken naar hogere rekenkracht terwijl ze energie- en kostenbeperkingen beheren. In deze competitieve omgeving streven bedrijven ernaar prestaties in evenwicht te brengen met operationele kosten en energieverbruik.

Technische details en implementatieplannen voor Maia 200-chips

Microsoft zei dat de Maia 200-chips gebruik maken van het 3-nanometerproces van Taiwan Semiconductor Manufacturing Co. Het bedrijf zei dat het vier Maia 200-chips in elke server plaatst, onderling verbonden voor verhoogde doorvoer. Microsoft legde uit dat het ontwerp gebruik maakt van Ethernet-kabels in plaats van de InfiniBand-standaard die in Nvidia-installaties wordt gebruikt.

Het bedrijf stelde dat de Maia 200 30 procent hogere prestaties levert tegen gelijkwaardige prijspunten vergeleken met alternatieven. Microsoft zei dat elke Maia 200 meer high-bandwidth geheugen bevat dan AWS's Trainium of Google's zevende generatie TPU's. Dit architectonische ontwerp is bedoeld om grootschalige modelinferentieworkloads te ondersteunen.

Microsoft zei ook dat het tot 6.144 Maia 200-chips kan koppelen om de prestaties nog verder op te schalen. Het bedrijf beweerde dat deze aanpak helpt het energieverbruik en de totale eigendomskosten te verminderen. Microsoft toonde eerder aan dat de Maia 100 GitHub Copilot kon uitvoeren in 2023.

Microsoft zei dat het Maia 200-chips eerst zal inzetten in zijn U.S. Central datacenterregio. Het bedrijf zei dat chips later in de U.S. West 3-regio zullen aankomen. Aanvullende wereldwijde implementaties zullen deze initiële uitrol volgen.

Het bericht Microsoft Unveils Second-Generation AI Chip to Strengthen Cloud Capabilities verscheen eerst op Blockonomi.

Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met crypto.news@mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!