Micron đang thử đưa bộ nhớ đồ họa ra khỏi thế giới card chơi game để bước vào thị trường AI, và đây có thể là thay đổi lớn với cả giá bộ nhớ lẫn cách triển khai inference trong vài năm tới. Theo bài viết gốc của Wccftech, hãng được cho là đang lên kế hoạch xếp chồng các mô-đun GDDR theo kiểu gần giống HBM thay vì chỉ dùng chúng như VRAM truyền thống. Điểm đáng chú ý là hướng đi này ưu tiên dung lượng cao và chi phí tốt hơn, thay vì chạy đua băng thông tuyệt đối như HBM. Nếu nguyên mẫu xuất hiện từ năm 2027 đúng như báo cáo, Micron có thể mở ra một lớp bộ nhớ mới dành riêng cho AI inference, nơi bài toán lớn nhất không còn chỉ là tốc độ mà là số lượng dữ liệu cần chứa trên mỗi module.
Micron đang muốn biến GDDR thành lựa chọn dung lượng cao cho AI
Điểm cốt lõi trong kế hoạch của Micron là xếp chồng khoảng 4 lớp GDDR để tạo ra module có dung lượng cao hơn mức quen thuộc trên GPU gaming hiện nay. Cách làm này không nhằm thay thế HBM trong huấn luyện mô hình lớn, vì HBM vẫn vượt trội về băng thông và độ tối ưu cho các hệ thống cao cấp. Nhưng ở mảng inference, nơi doanh nghiệp cần chạy mô hình với chi phí dễ chịu hơn và lưu được nhiều tham số hơn trên mỗi cụm máy, dòng bộ nhớ này lại có cơ hội riêng. Đây cũng là lý do thị trường gần đây chú ý nhiều hơn tới những GPU hoặc accelerator tối ưu cho suy luận, giống xu hướng từng thấy ở Rubin CPX dùng GDDR7 trước khi roadmap thay đổi.
Báo cáo từ ETNews cho biết nguyên mẫu đầu tiên có thể xuất hiện sớm nhất vào năm sau, tức năm 2027 nếu tính theo mốc công bố ngày 30 tháng 3 năm 2026 của bài gốc. Micron nhiều khả năng chọn hướng đi này vì phân khúc bộ nhớ đồ họa chưa bị AI hút sạch nguồn cung mạnh như LPDDR hay DDR trong giai đoạn vừa qua. Nếu stack GDDR thành công, hãng có thể bán một giải pháp nằm giữa hai thái cực: rẻ hơn HBM nhưng vẫn đủ dung lượng để phục vụ inference quy mô lớn. Nói đơn giản hơn, thay vì nhồi thật nhiều băng thông đắt đỏ vào một gói nhớ, hãng đang thử tạo ra bộ nhớ có sức chứa lớn hơn để xử lý các workload cần nạp nhiều tham số mà vẫn kiểm soát được chi phí phần cứng.
Rào cản nhiệt và tín hiệu sẽ quyết định GDDR xếp chồng có đi xa hay không
Thách thức lớn nhất của Micron không nằm ở ý tưởng mà ở phần hiện thực hóa, vì GDDR vốn nóng và tiêu thụ điện cao hơn LPDDR. Khi các lớp bộ nhớ được chồng lên nhau, bài toán nhiệt độ, nhiễu tín hiệu và cách đi dây sẽ lập tức khó hơn rất nhiều, nhất là nếu hãng vẫn đi theo hướng wire bonding truyền thống. Micron trước đó đã giới thiệu SOCAMM2 với LPDDR5X xếp chồng tới 16 lớp và dung lượng 256GB mỗi mô-đun, nhưng dòng nhớ đồ họa là câu chuyện khác vì nó được thiết kế cho xung cao chứ không phải hiệu suất điện năng. Điều đó có nghĩa là hãng có thể phải đánh đổi một phần xung nhịp để giữ hệ thống ổn định nếu muốn đưa giải pháp này ra thị trường thực tế.
Nếu giải được bài toán kỹ thuật này, giải pháp GDDR xếp chồng sẽ trở thành quân bài đáng giá cho Micron trong bối cảnh thị trường bộ nhớ AI đang biến động rất nhanh. HBM vẫn là chuẩn hiệu năng cao nhất cho accelerator hàng đầu, nhưng chi phí và nguồn cung luôn là điểm nghẽn khiến nhiều khách hàng phải tìm phương án linh hoạt hơn. Một giải pháp bộ nhớ GDDR mới có thể không nhanh bằng HBM, song lại hấp dẫn ở dung lượng và giá thành, đặc biệt với doanh nghiệp đang tối ưu suy luận thay vì huấn luyện mô hình nền tảng. Đây cũng là lý do những diễn biến quanh sản lượng HBM4 của Micron, Samsung và SK Hynix đang được theo dõi rất sát, vì chỉ cần một hướng đi mới đủ hiệu quả, cán cân thị trường bộ nhớ AI có thể đổi rất nhanh.
Nguồn: WCCFtech

