Microsoft heeft een nieuwe kunstmatige intelligentiechip geïntroduceerd genaamd de Maia 200 die zich richt op cloud computing workloads. De chip komt twee jaar nadat Microsoft zijn eerste AI-chip, de Maia 100, onthulde, die nooit breed beschikbaar werd voor cloudklanten. Het bedrijf zei dat de Maia 200 meer klanten zal bereiken en in de toekomst breder beschikbaar zal zijn.
Microsoft kondigde aan dat de Maia 200 kan dienen als alternatief voor processors van Nvidia, Amazon's Trainium en Google's TPU's. Scott Guthrie, Microsoft's executive vice president voor cloud en AI, zei dat de Maia 200 "bredere beschikbaarheid voor klanten in de toekomst" brengt. Microsoft zei dat de Maia 200 het meest efficiënte inferentiesysteem vertegenwoordigt dat tot nu toe is ingezet.
Ontwikkelaars, academici en AI-labs kunnen zich aanmelden voor een preview van de Maia 200 software development kit. De preview biedt vroege toegang tot tools voor het bouwen en optimaliseren van AI-workloads op de nieuwe chip. Microsoft zei dat de preview experimentatie met open source AI-modellen en zakelijke gebruikscases zal verbreden.
Microsoft zei dat zijn superintelligentieteam, geleid door Mustafa Suleyman, de Maia 200 zal gebruiken voor interne en klant-workloads. Het bedrijf bevestigde ook dat Microsoft 365 Copilot en Microsoft Foundry op de nieuwe chip zullen draaien. Deze diensten omvatten productiviteitssoftware add-ons en frameworks voor het bouwen bovenop grote AI-modellen.
Cloudproviders worden geconfronteerd met groeiende vraag van AI-modelontwikkelaars zoals Anthropic en OpenAI, aldus Microsoft. Datacenterbeheerders zoeken naar hogere rekenkracht terwijl ze energie- en kostenbeperkingen beheren. In deze competitieve omgeving streven bedrijven ernaar prestaties in evenwicht te brengen met operationele kosten en energieverbruik.
Microsoft zei dat de Maia 200-chips gebruik maken van het 3-nanometerproces van Taiwan Semiconductor Manufacturing Co. Het bedrijf zei dat het vier Maia 200-chips in elke server plaatst, onderling verbonden voor verhoogde doorvoer. Microsoft legde uit dat het ontwerp gebruik maakt van Ethernet-kabels in plaats van de InfiniBand-standaard die in Nvidia-installaties wordt gebruikt.
Het bedrijf stelde dat de Maia 200 30 procent hogere prestaties levert tegen gelijkwaardige prijspunten vergeleken met alternatieven. Microsoft zei dat elke Maia 200 meer high-bandwidth geheugen bevat dan AWS's Trainium of Google's zevende generatie TPU's. Dit architectonische ontwerp is bedoeld om grootschalige modelinferentieworkloads te ondersteunen.
Microsoft zei ook dat het tot 6.144 Maia 200-chips kan koppelen om de prestaties nog verder op te schalen. Het bedrijf beweerde dat deze aanpak helpt het energieverbruik en de totale eigendomskosten te verminderen. Microsoft toonde eerder aan dat de Maia 100 GitHub Copilot kon uitvoeren in 2023.
Microsoft zei dat het Maia 200-chips eerst zal inzetten in zijn U.S. Central datacenterregio. Het bedrijf zei dat chips later in de U.S. West 3-regio zullen aankomen. Aanvullende wereldwijde implementaties zullen deze initiële uitrol volgen.
Het bericht Microsoft Unveils Second-Generation AI Chip to Strengthen Cloud Capabilities verscheen eerst op Blockonomi.


