NVIDIA công bố Vera Rubin POD với 1.152 GPU trên 40 rack, mang lại 60 exaflops và hiệu suất suy luận tốt hơn 10 lần mỗi watt so với Blackwell. (ĐọcNVIDIA công bố Vera Rubin POD với 1.152 GPU trên 40 rack, mang lại 60 exaflops và hiệu suất suy luận tốt hơn 10 lần mỗi watt so với Blackwell. (Đọc

NVIDIA Ra Mắt Siêu Máy Tính AI Vera Rubin POD 40-Rack cho Khối Lượng Công Việc Agentic

2026/03/17 03:48
Đọc trong 5 phút
Đối với phản hồi hoặc thắc mắc liên quan đến nội dung này, vui lòng liên hệ với chúng tôi qua crypto.news@mexc.com

NVIDIA Công Bố Siêu Máy Tính AI Vera Rubin POD 40 Giá Đỡ Cho Khối Lượng Công Việc Agentic

Iris Coleman 16/03/2026 19:48

NVIDIA công bố Vera Rubin POD với 1,152 GPU trên 40 giá đỡ, cung cấp 60 exaflops và hiệu suất suy luận tốt hơn 10 lần mỗi watt so với Blackwell.

NVIDIA Công Bố Siêu Máy Tính AI Vera Rubin POD 40 Giá Đỡ Cho Khối Lượng Công Việc Agentic

NVIDIA vừa công bố thông số kỹ thuật cho dự án cơ sở hạ tầng AI đầy tham vọng nhất của mình. Vera Rubin POD tích hợp 1,152 GPU Rubin trên 40 giá đỡ, cung cấp 60 exaflops sức mạnh tính toán và 10 petabyte mỗi giây tổng băng thông mở rộng. Các đơn vị sản xuất sẽ được giao vào nửa cuối năm 2026.

Con số ở đây thật đáng kinh ngạc: 1,2 triệu tỷ bóng bán dẫn, gần 20,000 die NVIDIA, tất cả được thiết kế để hoạt động như một siêu máy tính mạch lạc duy nhất. NVIDIA tuyên bố hiệu suất huấn luyện tốt hơn 4 lần và hiệu suất suy luận tốt hơn 10 lần mỗi watt so với kiến trúc Blackwell hiện tại—với chi phí token giảm xuống còn một phần mười so với mức hiện tại.

Năm Hệ Thống Giá Đỡ Được Thiết Kế Riêng

POD kết hợp năm hệ thống quy mô giá đỡ riêng biệt, mỗi hệ thống nhắm đến các điểm nghẽn cụ thể trong khối lượng công việc AI hiện đại:

Vera Rubin NVL72 đóng vai trò là động cơ tính toán cốt lõi. Mỗi giá đỡ tích hợp 72 GPU Rubin và 36 CPU Vera được kết nối thông qua NVLink 6, cung cấp băng thông 3,6 TB/s mỗi GPU—tổng băng thông nhiều hơn toàn bộ internet toàn cầu, theo NVIDIA. Hệ thống nhắm đến cả bốn quy luật mở rộng AI: pretraining, post-training, test-time scaling và agentic scaling.

Groq 3 LPX racks giải quyết vấn đề độ trễ. Với 256 đơn vị xử lý ngôn ngữ mỗi giá đỡ sử dụng kiến trúc chỉ SRAM, chúng kết hợp với NVL72 để cung cấp những gì NVIDIA tuyên bố là nhiều hơn 35 lần token và cơ hội doanh thu nhiều hơn 10 lần cho các mô hình nghìn tỷ tham số so với Blackwell.

Vera CPU racks cung cấp môi trường sandbox để thử nghiệm tác nhân. Một giá đỡ duy nhất duy trì hơn 22,500 môi trường học tăng cường đồng thời—quan trọng để xác thực đầu ra AI agentic trước khi triển khai.

BlueField-4 STX racks giới thiệu những gì NVIDIA gọi là "lưu trữ gốc AI" thông qua nền tảng bộ nhớ ngữ cảnh CMX. Bằng cách giảm tải KV cache sang lưu trữ băng thông cao chuyên dụng, hệ thống tuyên bố cao hơn 5 lần token mỗi giây và hiệu suất năng lượng tốt hơn 5 lần so với các phương pháp truyền thống.

Spectrum-6 SPX networking racks kết nối mọi thứ lại với nhau bằng các switch 102,4 Tb/s có quang học đóng gói chung.

Lập Luận Kinh Tế Token

NVIDIA đóng khung điều này xung quanh một thực tế thị trường cụ thể: tiêu thụ token hiện vượt quá 10 triệu tỷ mỗi năm, và sự chuyển đổi từ tương tác người-AI sang AI-AI sẽ tăng tốc tăng trưởng đó một cách đáng kể. Các hệ thống agentic hiện đại tạo ra khối lượng token suy luận khổng lồ trong khi mở rộng yêu cầu KV cache—chính xác là điểm nghẽn mà kiến trúc này nhắm đến.

Các benchmark InferenceMax của bên thứ ba SemiAnalysis được NVIDIA trích dẫn cho thấy các hệ thống Blackwell hiện tại đã cung cấp hiệu suất tốt hơn 50 lần mỗi watt và chi phí thấp hơn 35 lần mỗi token so với H200. Vera Rubin hướng đến việc mở rộng lợi thế đó.

Kỹ Thuật Nhiệt Và Năng Lượng

Kiến trúc giá đỡ MGX thế hệ thứ ba giới thiệu Intelligent Power Smoothing với lưu trữ năng lượng cấp giá đỡ nhiều hơn 6 lần (400 joule mỗi GPU) so với các thế hệ trước. Điều này giảm nhu cầu dòng điện đỉnh lên đến 25% và loại bỏ nhu cầu về các bộ pin khổng lồ.

Tất cả các giá đỡ hoạt động ở nhiệt độ đầu vào nước ấm 45°C, cho phép các trung tâm dữ liệu ở nhiều vùng khí hậu sử dụng làm mát bằng không khí xung quanh. NVIDIA tuyên bố điều này giải phóng đủ năng lượng để thêm 10% giá đỡ trong cùng ngân sách năng lượng cơ sở.

Nhìn Về Phía Trước

Ngoài cấu hình POD ban đầu, NVIDIA đã xem trước Vera Rubin Ultra NVL576 mở rộng lên 576 GPU trên tám giá đỡ, và kiến trúc thế hệ tiếp theo Kyber nhắm đến NVL1152 với 144 GPU mỗi giá đỡ. Lộ trình cho thấy NVIDIA coi các miền NVLink nhiều giá đỡ là tương lai của cơ sở hạ tầng AI—không chỉ GPU lớn hơn, mà là các kiến trúc hệ thống khác biệt về cơ bản.

Đối với các doanh nghiệp đang lập kế hoạch đầu tư cơ sở hạ tầng AI, thông điệp rất rõ ràng: kinh tế của tính toán AI đang chuyển từ tối ưu hóa cấp chip sang cấp cơ sở. Những người đang xây dựng trung tâm dữ liệu hiện nay phải đối mặt với sự lựa chọn giữa các hệ thống thế hệ hiện tại và chờ đợi sự sẵn có của Vera Rubin vào cuối năm 2026.

Nguồn hình ảnh: Shutterstock
  • nvidia
  • cơ sở hạ tầng ai
  • vera rubin
  • trung tâm dữ liệu
  • enterprise ai
Cơ hội thị trường
Logo Ucan fix life in1day
Giá Ucan fix life in1day(1)
$0.0003734
$0.0003734$0.0003734
+0.72%
USD
Biểu đồ giá Ucan fix life in1day (1) theo thời gian thực
Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ crypto.news@mexc.com để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.