NVIDIA Nemotron 3 Super trafia do Together AI z oknem kontekstowym 1M tokenów
Jessie A Ellis 11 mar 2026 21:43
Model NVIDIA Nemotron 3 Super ze 120 mld parametrów jest już dostępny w Together AI, oferując 5-krotny wzrost przepustowości dla wieloagentowych systemów AI i obciążeń korporacyjnych.
Together AI ogłosiło 11 marca dostępność modelu NVIDIA Nemotron 3 Super na swojej platformie Dedicated Inference, zapewniając programistom korporacyjnym dostęp do modelu rozumowania ze 120 miliardami parametrów zoptymalizowanego dla wieloagentowych systemów AI. Akcje NVIDIA były notowane po 186,03 USD, wzrost o 0,66% po tej wiadomości.
Czas ma znaczenie. Nemotron 3 Super to drugi model z otwartymi wagami NVIDIA z rodziny Nemotron 3, po grudniowym wydaniu Nano, i celuje w konkretny problem produkcyjnej AI: obliczeniowe obciążenie związane z uruchamianiem złożonych przepływów pracy agentów na dużą skalę.
Dlaczego architektura ma znaczenie
Oto co odróżnia ten model od typowego wyścigu o liczbę parametrów. Pomimo łącznej liczby 120 mld parametrów, tylko 12 mld jest aktywnych podczas wnioskowania. Hybrydowy projekt — łączący uwagę Transformera z przetwarzaniem sekwencji Mamba — zapewnia, jak twierdzi NVIDIA, 5-krotnie wyższą przepustowość niż poprzedni model Nemotron Super.
Okno kontekstowe na 1 milion tokenów rozwiązuje problem, który programiści nazywają "eksplozją kontekstu". Aplikacje wieloagentowe mogą zużywać 15 razy więcej tokenów niż standardowe interakcje czatowe, a większość modeli nie radzi sobie z takim obciążeniem. Nemotron 3 Super obsługuje całe bazy kodu, obszerne magazyny dokumentów i rozszerzone trajektorie agentów bez spadku wydajności.
Trening Multi-Token Prediction pozwala modelowi generować kilka tokenów jednocześnie przy każdym przebiegu w przód. W przypadku generowania kodu lub ustrukturyzowanych wyników, NVIDIA raportuje 50% szybsze generowanie tokenów w porównaniu z wiodącymi modelami otwartymi.
Ruch Together AI
Uruchomienie hybrydowego modelu 120 mld z kontekstem miliona tokenów zazwyczaj wymaga rozproszonego obliczania w wielu węzłach. Oferta Dedicated Inference Together AI upraszcza wdrożenie do pojedynczych procesorów graficznych NVIDIA H200 lub H100 — bez konieczności rezerwacji GPU po stronie programisty.
Platforma obiecuje 99,9% SLA czasu pracy i zgodność z SOC 2, pozycjonując to jako infrastrukturę gotową dla przedsiębiorstw, a nie eksperymentowanie na poziomie badawczym.
Aplikacje produkcyjne
Docelowe przypadki użycia obejmują asystentów programistów analizujących bazy kodu, korporacyjne systemy przetwarzania dokumentów, segregację podatności w cyberbezpieczeństwie oraz warstwy orkiestracji kierujące zadania do wyspecjalizowanych agentów.
Podejście z otwartymi wagami — wydane na licencji NVIDIA Nemotron Open Model License — pozwala zespołom dostrajać model do konkretnych środowisk i wdrażać go lokalnie, co jest kluczowym czynnikiem dla przedsiębiorstw z wymogami suwerenności danych.
NVIDIA ogłosiła również 10 marca NemoClaw, platformę open-source dla agentów AI, która może uzupełnić wdrożenia Nemotron 3 Super. Programiści mogą natychmiast uzyskać dostęp do modelu za pośrednictwem dedykowanego poziomu wnioskowania Together AI.
Źródło obrazu: Shutterstock- nvidia
- infrastruktura ai
- nemotron
- together ai
- korporacyjne ai








