Nvidia heeft opnieuw een belangrijke stap gezet in de mondiale race naar geavanceerde AI-oplossingen. Het bedrijf zegt dat zijn nieuwe Rubin-datacenterchips bijna klaar zijn voor lancering later dit jaar, en klanten zullen binnenkort beginnen met het testen ervan.
Alle zes Rubin-chips zijn teruggekeerd van Nvidia's productieparts, aldus Nvidia. Deze chips hebben al verschillende belangrijke testprocedures ondergaan en liggen op schema om door klanten te worden gebruikt. Het bedrijf merkt op dat deze vroege vooruitgang belangrijk is omdat AI-bedrijven en datacenters wedijveren om snellere en efficiëntere hardware te krijgen.
Nvidia Chief Executive Officer Jensen Huang deelde de update in een keynote-toespraak op de Consumer Electronics Show (CES) in Las Vegas. CES behoort tot de grootste technologiebijeenkomsten ter wereld, waarbij fabrikanten nieuwe producten en ideeën onthullen. "De race om AI is begonnen," zei Huang te midden van de zich snel ontwikkelende race tussen technologiebedrijven om de volgende generatie AI te ontgrendelen.
Zijn opmerkingen geven aan dat Nvidia er zeer zeker van is dat het nog steeds de nummer één fabrikant van AI-accelerators ter wereld kan zijn. Deze accelerators zijn gespecialiseerde chips die een datacenter gebruikt om AI-modellen te trainen en uit te voeren, die tools zoals chatbots, beeldherkenningssystemen en geavanceerde robots van stroom voorzien.
Rubin is Nvidia's nieuwste AI-accelerator, volgend op de vorige generatie genaamd Blackwell. Het bedrijf zegt dat Rubin 3,5 keer sneller is bij het trainen van AI-modellen en vijf keer sneller bij het draaien van AI-software in vergelijking met Blackwell. AI trainen houdt in dat modellen worden geleerd om te leren van enorme hoeveelheden data, terwijl AI uitvoeren betekent dat die modellen worden gebruikt om taken in realtime uit te voeren.
Rubin voegt een nieuwe centrale verwerkingseenheid (CPU) toe met 88 cores. Cores zijn de onderdelen van een chip die berekeningen uitvoeren en gegevens verwerken. Met tweemaal de prestaties van de chip die het vervangt, is deze nieuwe CPU beter geschikt voor complexere AI-workloads. Op Nvidia's GTC-conferentie in het voorjaar in Californië deelt het bedrijf doorgaans volledige productdetails.
Deze keer was er meer informatie uitverkocht dan gebruikelijk. De stap wordt beschouwd als een middel om consumenten en ontwikkelaars gefocust te houden op Nvidia's hardware terwijl de adoptie van AI zich snel blijft ontwikkelen. Huang zelf heeft ook talrijke openbare optredens gemaakt om AI-producten, partnerships en investeringen te promoten. Nvidia was niet de enige speler in de schijnwerpers op CES. Lisa Su, CEO van rivaliserende chipfabrikant Advanced Micro Devices (AMD), boekte ook een keynote, wat de escalerende concurrentie op de chipmarkt benadrukt.
Sommige investeerders hebben zich zorgen gemaakt dat de concurrentie voor Nvidia oploopt. Andere techbedrijven ontwikkelen ook hun eigen AI-chips, waardoor het moeilijk te zeggen is of de uitgaven aan AI gelijke tred kunnen houden.
Nvidia is echter optimistisch en gelooft dat de langetermijn AI-markt biljoenen dollars waard zou kunnen zijn, gedreven door vraag uit sectoren zoals cloud computing, bedrijven en opkomende sectoren.
De Rubin-hardware zal worden gebruikt in Nvidia's DGX SuperPod, een krachtige supercomputer ontworpen voor grootschalig AI-werk. Tegelijkertijd zullen klanten de Rubin-chips kunnen kopen als individuele componenten, waardoor ze flexibelere en modulaire systemen kunnen bouwen.
De verhoogde prestaties zijn bijzonder cruciaal, aangezien AI-systemen zich blijven ontwikkelen. Moderne AI is steeds meer afhankelijk van netwerken van gespecialiseerde modellen die niet alleen enorme hoeveelheden data verwerken, maar ook problemen in meerdere stappen oplossen. Dergelijke taken omvatten planning, redeneren en besluitvorming.
Nvidia benadrukte ook dat op Rubin gebaseerde systemen goedkoper zullen zijn om te gebruiken dan Blackwell-systemen. Omdat Rubin dezelfde resultaten kan leveren met minder componenten, kunnen datacenters besparen op energie- en bedrijfskosten.
Grote cloudcomputingbedrijven zoals Microsoft, Google Cloud en Amazon Web Services (AWS) zullen naar verwachting tot de eersten behoren die Rubin-hardware in de tweede helft van het jaar implementeren. Deze bedrijven vertegenwoordigen momenteel het grootste deel van de uitgaven aan door Nvidia aangedreven AI-systemen.
Verscherp uw strategie met mentorschap + dagelijkse ideeën - 30 dagen gratis toegang tot ons handelsprogramma


