Micron Technology (NASDAQ:MU) đã bắt đầu phân phối mẫu cho khách hàng về mô-đun bộ nhớ máy chủ tiêu thụ điện năng thấp SOCAMM2 256GB, được thiết kế để đáp ứng nhu cầu ngày càng tăng về năng lượng và hiệu suất của các trung tâm dữ liệu AI. Mô-đun mới nhất này là bước tiến so với phiên bản SOCAMM2 192GB trước đây của Micron, cho phép bộ nhớ gắn CPU lên đến 2TB trong khi sử dụng khoảng một phần ba điện năng của các mô-đun đã đăng ký DDR5 truyền thống (RDIMMs).
Bất chấp sự đổi mới này, cổ phiếu Micron vẫn gần như không thay đổi trong giao dịch sớm tại Mỹ, giảm nhẹ xuống $400,42, phản ánh sự thận trọng của nhà đầu tư vì bộ nhớ vẫn đang trong giai đoạn lấy mẫu và chưa được triển khai ở quy mô đầy đủ.
Micron Technology, Inc., MU
Ian Finder, trưởng bộ phận sản phẩm CPU trung tâm dữ liệu của Nvidia, mô tả mô-đun SOCAMM2 là "kích hoạt thế hệ tiếp theo của CPU AI," nhấn mạnh tác động tiềm năng của nó đối với điện toán hiệu suất cao (HPC) và khối lượng công việc AI tạo sinh. Sự hợp tác giữa Micron và Nvidia nhấn mạnh tầm quan trọng của việc điều chỉnh công nghệ bộ nhớ với các yêu cầu CPU và GPU hiện đại để hỗ trợ các mô hình AI ngày càng lớn.
Brendan Burke, nhà phân tích tại Futurum Research, lưu ý rằng DRAM tiêu thụ điện năng thấp gắn CPU đang nổi lên như một tầng bộ nhớ quan trọng cho khối lượng công việc suy luận, có thể tạo ra sự tăng đột ngột về nhu cầu và mức tiêu thụ điện năng. Bằng cách đặt bộ nhớ gần CPU, SOCAMM2 giúp giảm độ trễ và mức tiêu thụ điện năng trong khi xử lý các bộ dữ liệu lớn cần thiết cho các mô hình AI.
SOCAMM2, viết tắt của mô-đun bộ nhớ gắn nén đường viền nhỏ, tận dụng LPDDR5X DRAM thường thấy trong điện thoại thông minh. Thiết kế này không chỉ cắt giảm mức tiêu thụ điện năng mà còn giảm dung lượng vật lý của bộ nhớ máy chủ, chỉ chiếm một phần ba không gian của các RDIMM tương đương.
Các thử nghiệm nội bộ của Micron sử dụng mô hình ngôn ngữ lớn Llama 3 70B đã cho thấy sự cải thiện hơn 2,3 lần trong "thời gian đến token đầu tiên," một chỉ số chính cho hiệu suất suy luận AI.
Bố cục LPDDR5X 32-gigabit nguyên khối của mô-đun 256GB cho phép mỗi CPU máy chủ tám kênh hỗ trợ lên đến 2TB bộ nhớ tiêu thụ điện năng thấp. Việc mở rộng quy mô này mang lại mức tăng dung lượng đáng kể 33% so với phiên bản 192GB trước đây, khiến nó hấp dẫn đối với các nhà khai thác đang tìm kiếm cả mật độ và hiệu quả năng lượng trong các trung tâm dữ liệu AI.
Trong khi Micron dẫn đầu cùng với Samsung và SK hynix trong phát triển SOCAMM2 và bộ nhớ băng thông cao, việc áp dụng rộng rãi sẽ phụ thuộc vào các yếu tố như đủ điều kiện của khách hàng, cải tổ hệ thống và tốc độ tiêu chuẩn hóa JEDEC. Các nhà phân tích cảnh báo rằng hạn chế nguồn cung có thể kéo dài đến năm 2027, có khả năng hạn chế tác động khối lượng ngay lập tức lên doanh thu hàng đầu của Micron.
Thu nhập quý hai tài chính của công ty, dự kiến vào ngày 18 tháng 3, sẽ cung cấp cho các nhà đầu tư tín hiệu về xu hướng giá cả và khối lượng vận chuyển cho các sản phẩm trung tâm dữ liệu mới. Trong khi đó, Micron tiếp tục hợp tác với Nvidia và tham gia vào các nhóm tiêu chuẩn, định vị SOCAMM2 cho việc mở rộng tiềm năng trong tương lai ngoài các ứng dụng AI hiệu suất cao ngách.
Hiện tại, cổ phiếu của Micron vẫn ổn định phần lớn, phản ánh sự cân bằng giữa triển vọng của công nghệ bộ nhớ thế hệ tiếp theo và sự không chắc chắn xung quanh việc triển khai thương mại của nó.
Bài viết Cổ phiếu Micron (MU); Giảm nhẹ bất chấp sự đổi mới bộ nhớ gắn CPU 2TB xuất hiện đầu tiên trên CoinCentral.


