BitcoinWorld Google AI-chips ontketend: TPU 8t en 8i gelanceerd om Nvidia's dominantie uit te dagen In een strategische zet om een groter aandeel te veroveren van de bloeiende kunstmatige intelligentieBitcoinWorld Google AI-chips ontketend: TPU 8t en 8i gelanceerd om Nvidia's dominantie uit te dagen In een strategische zet om een groter aandeel te veroveren van de bloeiende kunstmatige intelligentie

Google AI-chips ontketend: TPU 8t en 8i gelanceerd om Nvidia's dominantie uit te dagen

2026/04/23 02:50
7 min lezen
Voor feedback of opmerkingen over deze inhoud kun je contact met ons opnemen via crypto.news@mexc.com

BitcoinWorld

Google AI-chips ontketend: TPU 8t en 8i gelanceerd om Nvidia's dominantie uit te dagen

In een strategische zet om een groter deel van de snel groeiende markt voor kunstmatige intelligentie te veroveren, kondigde Google Cloud op woensdag 30 april in San Francisco, CA de lancering aan van zijn achtste generatie aangepaste AI-chips. Het bedrijf onthulde een tweesporige aanpak en introduceerde twee gespecialiseerde chips: de TPU 8t voor het trainen van AI-modellen en de TPU 8i voor inferentiewerklasten. Deze ontwikkeling is het meest significante signaal tot nu toe dat Google ondernemingen een krachtig, kosteneffectief alternatief wil bieden voor Nvidia's industriestandaard GPU's, hoewel de zoekgigant benadrukt dat zijn partnerschap met de chipleider sterker is dan ooit.

Google AI-chips: een tweesporige strategie voor training en inferentie

Google's beslissing om zijn achtste generatie Tensor Processing Unit (TPU) op te splitsen in twee afzonderlijke modellen vertegenwoordigt een grote evolutie in zijn hardwarestrategie. Historisch gezien verwerkte TPU's zowel training als inferentie, maar de explosief groeiende vraag naar gespecialiseerde AI-rekenkracht heeft deze architectuurverschuiving aangedreven. De TPU 8t is specifiek ontworpen voor het rekenintensieve proces van het trainen van grote taalmodellen en andere AI-systemen. De TPU 8i is daarentegen geoptimaliseerd voor inferentie, het doorlopende proces van het uitvoeren van getrainde modellen om antwoorden te genereren op gebruikersprompts.

Volgens Google's prestatiereferenties leveren de nieuwe chips aanzienlijke verbeteringen ten opzichte van hun voorgangers. Het bedrijf claimt dat de TPU 8t tot 3x snellere AI-modeltraining biedt en een 80% betere prestatie per dollar. Bovendien kunnen door Google's engineering nu meer dan één miljoen TPU's samenwerken in één enkel, massief cluster. Deze schaal maakt de training van volgende generatie grensmodellen mogelijk die voorheen niet haalbaar waren. Het voordeel voor cloudklanten is aanzienlijk meer rekenkracht bij lager energieverbruik en lagere kosten.

De hyperscaler-chiprace wordt heviger

Google's aankondiging plaatst het bedrijf stevig binnen de bredere trend van grote cloudproviders die aangepaste silicium ontwikkelen. Amazon Web Services (AWS) heeft zijn Graviton- en Trainium-chips, terwijl Microsoft Azure zijn Maia-acceleratoren ontwikkelt. Deze beweging, vaak de "hyperscaler-chiprace" genoemd, wordt aangedreven door een verlangen naar meer controle over de toeleveringsketen, prestatieoptimalisatie voor specifieke softwarestacks en verbeterde kostenmarges. Analisten waarschuwen echter dat dit geen nulsomspel tegen Nvidia is.

"Het verhaal van 'hyperscalers vs. Nvidia' wordt vaak overdreven," legt Patrick Moore uit, een bekende chipmarktanalist. "Deze bedrijven bouwen aanvullende capaciteit en optimaliseren voor hun eigen ecosystemen. Ze zijn er niet op uit om Nvidia volledig te verdringen, zeker niet op korte termijn." Moore voorspelde in 2016 beroemd dat Google's eerste TPU Nvidia en Intel kon bedreigen, een voorspelling die te vroeg bleek naarmate Nvidia's marktkapitalisatie sindsdien is gestegen tot bijna $5 biljoen. De huidige werkelijkheid is meer symbiotisch. Google heeft bijvoorbeeld bevestigd dat het Nvidia's aankomende Vera Rubin-chip later dit jaar in zijn cloud zal aanbieden.

Een collaboratieve, niet vijandige toekomst

Google benadrukt in feite zijn voortdurende samenwerking met Nvidia. De twee techreuzen werken samen aan computernetwerkoplossingen om op Nvidia gebaseerde systemen efficiënter te laten draaien op Google Cloud-infrastructuur. Een belangrijk project betreft de verbetering van Falcon, een op software gebaseerde netwerktechnologie die Google in 2023 heeft gecreëerd en open-source heeft gemaakt. Deze samenwerking onderstreept een kritisch branche-inzicht: de groei van AI-clouddiensten vergroot de totale adresseerbare markt voor alle hoogwaardige silicium, of het nu het merk van Nvidia of een cloudprovider draagt.

De financiële logica is duidelijk. Naarmate ondernemingen hun AI-werklasten steeds meer naar de cloud migreren, explodeert de vraag naar rekenkracht. Cloudproviders kunnen dan bepaalde, geoptimaliseerde werklasten naar hun aangepaste chips sturen, terwijl ze de brede compatibiliteit van Nvidia GPU's voor anderen aanbieden. Dit hybride model stelt hen in staat de winstgevendheid op sommige werklasten te verbeteren terwijl ze volledige klantenkeuze behouden. Voor Nvidia vertegenwoordigt elke nieuwe AI-applicatie op Google Cloud een potentiële klant voor zijn netwerkapparatuur, softwarelicenties en in veel gevallen zijn GPU's.

Prestatie- en marktimpactanalyse

De technische specificaties van Google's nieuwe TPU's suggereren een vernauwende prestatiekloof met de beste GPU's in zijn klasse. De focus op prestaties per dollar en energie-efficiëntie pakt twee primaire pijnpunten aan voor ondernemingen die AI opschalen: snel stijgende kosten en milieu-impact. Google's vermogen om meer dan een miljoen TPU's te koppelen daagt ook direct een van Nvidia's belangrijkste voordelen uit: zijn marktleidende NVLink-technologie voor het verbinden van grote aantallen GPU's.

Belangrijkste voordelen van Google's nieuwe TPU's:

  • Specialisatie: Toegewijde chips voor training (TPU 8t) en inferentie (TPU 8i) optimaliseren voor specifieke taken.
  • Kostenefficiëntie: 80% betere prestatie per dollar kan de drempel voor AI-projecten aanzienlijk verlagen.
  • Schaal: Clusters van een miljoen chips maken de training van ongekende AI-modellen mogelijk.
  • Integratie: Diepe software-integratie met Google's AI-frameworks zoals TensorFlow en JAX.

Niettemin blijft Nvidia's ecosysteem, met name zijn CUDA-softwareplatform, een formidabele slotgracht. Miljoenen AI-ontwikkelaars zijn getraind op CUDA en talloze applicaties zijn ervoor gebouwd. Hoewel Google's chips populaire frameworks draaien, creëert de mogelijke noodzaak om applicaties te porten wrijving. De langetermijnstrijd gaat wellicht minder over ruwe transistorsnelheid en meer over welk platform de meest aantrekkelijke totaaloplossing biedt voor ontwikkelaars en ondernemingen.

Conclusie

Google's lancering van de TPU 8t en TPU 8i markeert een cruciaal moment in de evolutie van AI-infrastructuur. Het toont de serieuze betrokkenheid van het bedrijf om te concurreren in de risicovolle AI-hardwarearena en biedt ondernemingen krachtige nieuwe Google AI-chips voor gespecialiseerde taken. De aankondiging versterkt echter ook het complexe, collaboratieve karakter van de moderne halfgeleiderindustrie. In plaats van een frontale aanval voert Google een verfijnde, tweesporige strategie uit: het bevorderen van zijn eigen silicium terwijl het zijn partnerschap met Nvidia verdiept. Deze aanpak zorgt ervoor dat Google Cloud het breedst mogelijke scala aan AI-werklasten kan bedienen, van die geoptimaliseerd voor zijn aangepaste TPU's tot die waarvoor de universele standaard van Nvidia GPU's vereist is. De uiteindelijke winnaars zijn waarschijnlijk de ondernemingen, die zullen profiteren van meer concurrentie, meer keuzemogelijkheden en voortdurende innovatie in prestaties en kosten.

Veelgestelde vragen

V1: Wat is het verschil tussen Google's TPU 8t- en TPU 8i-chips?
De TPU 8t is specifiek ontworpen voor het trainen van AI-modellen — het proces van het onderwijzen van een model met behulp van enorme datasets. De TPU 8i is geoptimaliseerd voor inferentie, het proces van het gebruik van een getraind model om in realtime voorspellingen te doen of antwoorden te genereren.

V2: Stopt Google Cloud met het aanbieden van Nvidia GPU's?
Nee. Google heeft expliciet verklaard Nvidia niet te vervangen. Het bedrijf bevestigde dat het Nvidia's volgende generatie Vera Rubin GPU's later dit jaar in zijn cloud zal aanbieden en werkt actief samen met Nvidia aan netwerktechnologie.

V3: Hoe verhouden Google's nieuwe AI-chips zich tot eerdere TPU-versies?
Google beweert dat de nieuwe achtste generatie TPU's tot 3x snellere trainingssnelheden bieden en een verbetering van 80% in prestaties per dollar in vergelijking met eerdere generaties. Ze ondersteunen ook clusters van meer dan één miljoen chips, waardoor grootschaligere modeltraining mogelijk wordt.

V4: Waarom bouwen cloudproviders zoals Google hun eigen AI-chips?
Cloudproviders ontwikkelen aangepast silicium om de prestaties voor hun specifieke software en diensten te optimaliseren, meer controle over hun toeleveringsketen te krijgen, de kostenefficiëntie te verbeteren en hun aanbod in een concurrerende markt te differentiëren.

V5: Wat betekent dit voor de toekomst van Nvidia?
Hoewel aangepaste chips van hyperscalers concurrentie vertegenwoordigen, vergroot de algehele groei van de AI-markt de vraag naar alle hoogwaardige rekenkracht. Nvidia's robuuste software-ecosysteem (CUDA) en voortdurende innovatie betekenen dat het waarschijnlijk een dominante kracht blijft, zelfs terwijl het samenwerkt met bedrijven die alternatief silicium bouwen.

This post Google AI Chips Unleashed: TPU 8t and 8i Launch to Challenge Nvidia's Dominance first appeared on BitcoinWorld.

Marktkans
Movement logo
Movement koers(MOVE)
$0.01834
$0.01834$0.01834
-1.76%
USD
Movement (MOVE) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met crypto.news@mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!