Nvidia poświęciła początkowy etap GTC 2026 na ogłaszanie partnerstw w obszarach chipów, chmury, robotyki, telekomunikacji, motoryzacji, oprogramowania fabrycznego, przestrzeni kosmicznej i grafiki.
Wydarzenie rozpoczęło się w poniedziałek i trwa trzy dni.
Przemawiając do wypełnionej sali, dyrektor generalny Nvidia Jensen Huang powiedział, że spodziewa się, iż zamówienia zakupowe związane z Blackwell i Vera Rubin osiągną 1 bilion dolarów do 2027 roku, co jest znacznie powyżej możliwości przychodowych w wysokości 500 miliardów dolarów, o których firma mówiła w zeszłym roku dla tych dwóch platform chipowych.
Jensen ponownie zapewnił, że popyt na produkty Nvidia jest silny zarówno ze strony startupów, jak i dużych firm. Akcje Nvidia wzrosły w poniedziałek o około 2%, chociaż we wtorek w momencie publikacji ponownie znalazły się na minusie.
Większą historią na konferencji był jednak przepływ umów. Według obliczeń Cryptopolitan, firma ogłosiła już ponad 10 partnerstw, a ich całkowita liczba wynosi około 15-17.
Jedno z bardziej niezwykłych ogłoszeń na GTC 2026 dotyczyło przestrzeni kosmicznej. Nvidia poinformowała, że jej najnowsze platformy obliczeń przyspieszonych są wykorzystywane do przenoszenia obliczeń AI do orbitalnych centrów danych, inteligencji geoprzestrzennej i autonomicznych operacji kosmicznych.
Firma podała, że celuje w środowiska, w których rozmiar, waga i moc są ograniczone, ale zapotrzebowanie na poważną moc obliczeniową nadal rośnie.
Tutaj pojawia się nowy moduł NVIDIA Space-1 Vera Rubin. Nvidia stwierdziła, że moduł jest najnowszą częścią jej przyspieszonej platformy dla przestrzeni kosmicznej. Dodała również, że GPU Rubin w module może zapewnić nawet 25 razy więcej mocy obliczeniowej AI do wnioskowania w przestrzeni kosmicznej niż GPU NVIDIA H100.
Firma powiązała ten wzrost z obliczeniami nowej generacji dla orbitalnych centrów danych, bardziej zaawansowanym przetwarzaniem inteligencji geoprzestrzennej i autonomicznymi operacjami kosmicznymi. Stwierdziła również, że platforma została zaprojektowana tak, aby umożliwić aplikacjom AI działanie z Ziemi w przestrzeń kosmiczną i z przestrzeni w przestrzeń, w miarę jak potrzeby misji stają się coraz bardziej złożone.
Nvidia poinformowała, że współpracuje z twórcami mózgów robotów, producentami robotów przemysłowych i firmami zajmującymi się robotami humanoidalnymi, aby promować fizyczną AI na skalę produkcyjną.
Na GTC Jensen przedstawił nowe frameworki symulacyjne NVIDIA Isaac oraz nowe otwarte modele NVIDIA Cosmos i NVIDIA Isaac GR00T.
Lista partnerów w tym zakresie jest długa, ponieważ Nvidia wymieniła ABB Robotics, AGIBOT, Agility, FANUC, Figure, Hexagon Robotics, KUKA, Skild AI, Universal Robots, World Labs i YASKAWA jako liderów branży budujących na jej platformie. Jensen powiedział:
Nvidia ogłosiła również oddzielną inicjatywę oprogramowania przemysłowego. Poinformowała, że współpracuje z Cadence, Dassault Systèmes, PTC, Siemens i Synopsys, aby dostarczyć NVIDIA CUDA-X, NVIDIA Omniverse i narzędzia przemysłowe przyspieszone przez GPU do FANUC, HD Hyundai, Honda, JLR, KION, Mercedes-Benz, MediaTek, PepsiCo, Samsung, SK hynix i TSMC.
Firma stwierdziła, że te narzędzia będą wykorzystywane do przyspieszenia projektowania, inżynierii i produkcji.
Ta sama grupa firm programistycznych wprowadza również narzędzia agentowej AI napędzane przez Nvidię dla klientów przygotowujących się na kolejny etap rynku AI.
Nvidia poinformowała, że te rozwiązania działają na jej infrastrukturze AI w Amazon Web Services, Google Cloud, Microsoft Azure i Oracle Cloud Infrastructure, a także za pośrednictwem oryginalnych producentów sprzętu Dell, HPE i Supermicro w celu szybszego projektowania i prac symulacyjnych.
Motoryzacyjna strona wydarzenia również była zajęta. Nvidia poinformowała, że rozszerzyła współpracę z Hyundai Motor Company i Kia Corporation nad technologią autonomicznej jazdy nowej generacji zbudowaną na platformie NVIDIA DRIVE Hyperion.
Firma stwierdziła, że współpraca łączy możliwości Hyundaia w zakresie pojazdów definiowanych programowo, globalną flotę i prace rozwojowe nad autonomiczną jazdą z obliczeniami przyspieszonymi Nvidii, infrastrukturą AI i oprogramowaniem do samodzielnej jazdy.
W ramach rozszerzonej relacji Hyundai planuje zintegrować technologię autonomicznej jazdy Nvidia w wybranych pojazdach, wspierając systemy poziomu 2 i wyższe. Firma stwierdziła, że ta praca ma na celu poprawę bezpieczeństwa i dodanie inteligentniejszych funkcji jazdy na platformach pojazdów Hyundai.
Nvidia poinformowała również, że adopcja DRIVE Hyperion rośnie wśród globalnych producentów samochodów BYD, Geely, Isuzu i Nissan, wraz z dostawcami mobilności.
Kolejne partnerstwo dotyczyło nowego NVIDIA Physical AI Data Factory Blueprint, który Nvidia opisała jako otwartą architekturę referencyjną, która unifikuje i automatyzuje sposób generowania, rozszerzania i oceny danych treningowych.
W ramach tego wysiłku firma poinformowała, że współpracuje z Microsoft Azure i Nebius w celu integracji tego schematu z infrastrukturą i usługami chmurowymi.
Nvidia uruchomiła również NVIDIA Dynamo 1.0, oprogramowanie open-source do wnioskowania generatywnego i agentowego na dużą skalę. W połączeniu z platformą NVIDIA Blackwell, firma stwierdziła, że oprogramowanie pomaga dostawcom chmury, firmom AI i przedsiębiorstwom dostarczać wnioskowanie z większą szybkością, skalą i wydajnością.
Firma stwierdziła, że problem teraz nie polega tylko na surowej mocy obliczeniowej. Chodzi o orkiestrację wewnątrz centrum danych, gdzie żądania przychodzą w różnych rozmiarach, w różnych formatach i w nieprzewidywalnych seriach.
Dlatego Nvidia opisała Dynamo 1.0 jako rozproszony system operacyjny fabryk AI. Oprogramowanie zostało zbudowane do koordynowania zasobów GPU i pamięci w klastrze dla bardziej złożonych obciążeń AI. W benchmarkach branżowych Nvidia stwierdziła, że Dynamo poprawiło wydajność wnioskowania na GPU NVIDIA Blackwell nawet 7 razy.
Telekomunikacja była kolejnym obszarem na liście. Nvidia i T-Mobile poinformowały, że współpracują z Nokia i rosnącym ekosystemem programistów, aby wprowadzić aplikacje fizycznej AI przez rozproszone brzegowe sieci AI.
Firmy stwierdziły, że infrastruktura AI-RAN nowej generacji może przekształcić sieci bezprzewodowe w platformę dla rozproszonego wysokowydajnego brzegowego przetwarzania AI.
Powiązały to z programistami tworzącymi agentów wizyjnych AI, którzy mogą rozumieć świat fizyczny w miastach, zakładach użyteczności publicznej i przemysłowych miejscach pracy za pośrednictwem platformy NVIDIA Metropolis.
T-Mobile poinformował, że był pierwszym w Stanach Zjednoczonych, który pilotował infrastrukturę AI-RAN Nvidia, używając oprogramowania anyRAN firmy Nokia. Operator współpracuje obecnie z wybranymi partnerami fizycznej AI Nvidia, kontynuując jednocześnie dostarczanie zaawansowanej łączności 5G.
Firma uruchomiła również procesor NVIDIA Vera CPU, który nazwała pierwszym procesorem zbudowanym dla agentowej AI i uczenia ze wzmocnieniem. Nvidia stwierdziła, że Vera zapewnia dwukrotnie większą wydajność i działa o 50% szybciej niż tradycyjne procesory rack-scale.
Chip opiera się na wcześniejszym procesorze NVIDIA Grace CPU i jest przeznaczony dla organizacji budujących fabryki AI dla asystentów kodowania, agentów przedsiębiorstwa, agentów konsumenckich i innych usług AI na dużą skalę. Nvidia stwierdziła, że Vera zapewnia najwyższą wydajność pojedynczego wątku i przepustowość na rdzeń.
Firmy współpracujące z Nvidia w celu wdrożenia Vera obejmują hyperscalerów Alibaba, CoreWeave, Meta i Oracle Cloud Infrastructure, wraz z producentami systemów Dell Technologies, HPE, Lenovo, Supermicro i innymi.
Jeśli to czytasz, jesteś już o krok do przodu. Pozostań tam z naszym newsletterem.


