VDO logo
Tin công nghệ 09-05-2026

AI đẩy nhu cầu RAM lên 400GB, thị trường DRAM đối mặt áp lực kéo dài

Nhu cầu bộ nhớ trong kỷ nguyên AI đang bước vào giai đoạn tăng trưởng mạnh chưa từng có, khi không chỉ GPU mà cả CPU cũng trở thành “điểm nóng” tiêu thụ DRAM. Những diễn biến mới nhất cho thấy thị trường DRAM có thể tiếp tục đối mặt với tình trạng căng thẳng nguồn cung trong vài năm tới.

Theo các nguồn tin trong ngành, các nhà sản xuất CPU đang cân nhắc nâng dung lượng bộ nhớ lên mức 300–400GB cho mỗi chip phục vụ AI. Con số này cao hơn đáng kể so với mức phổ biến hiện nay, vốn dao động khoảng 96–256GB. Sự gia tăng nhanh chóng về dung lượng bộ nhớ phản ánh nhu cầu xử lý ngày càng lớn của các mô hình AI thế hệ mới.

Xu hướng này gắn liền với sự nổi lên của Agentic AI, khi các hệ thống không chỉ xử lý mà còn chủ động ra quyết định, kéo theo yêu cầu cao hơn về tài nguyên tính toán. Điều này đang làm thay đổi cấu trúc hạ tầng trung tâm dữ liệu. Nếu trước đây tỷ lệ GPU so với CPU có thể lên tới 8:1, thì hiện đã giảm xuống khoảng 4:1 và có thể tiến gần mức 1:1 trong thời gian tới. CPU vì thế đang trở lại vai trò trung tâm trong nhiều workload AI.

Áp lực từ phía cầu đang vượt xa khả năng đáp ứng của nguồn cung. Dù các hãng sản xuất bộ nhớ như Samsung, SK hynix và Micron đang hưởng lợi từ doanh thu tăng trưởng, họ vẫn chưa thể đáp ứng hết đơn hàng. Các kế hoạch mở rộng nhà máy đã được thúc đẩy, nhưng nhiều cơ sở mới vẫn chưa đi vào hoạt động. Thậm chí, một số nhận định cho rằng thị trường DRAM năm 2027 có thể còn căng thẳng hơn năm 2026.

Trong bối cảnh đó, cuộc đua dung lượng bộ nhớ không còn giới hạn ở GPU. NVIDIA đang chuẩn bị ra mắt thế hệ chip AI mới với 288GB HBM, trong khi AMD được cho là sẽ nâng dung lượng lên tới 432GB trên các dòng GPU cao cấp. Google cũng tham gia cuộc đua với TPU thế hệ mới tích hợp bộ nhớ dung lượng lớn.

Ở phía CPU, việc nâng dung lượng DRAM lên hàng trăm GB mỗi chip đặt ra nhiều hướng tiếp cận khác nhau. Một số khả năng bao gồm tích hợp HBM trực tiếp vào CPU, phát triển các chuẩn bộ nhớ mới, hoặc đơn giản là tăng dung lượng trên mỗi thanh DIMM. Nếu DIMM đạt mức 400GB, chỉ riêng một thanh bộ nhớ đã có thể vượt dung lượng của nhiều GPU hiện nay.

Tuy nhiên, việc ưu tiên sản xuất DRAM mật độ cao cho AI cũng kéo theo hệ lụy. Khi các dây chuyền tập trung vào sản phẩm cao cấp có biên lợi nhuận tốt hơn, các dòng bộ nhớ phổ thông có nguy cơ bị thu hẹp nguồn cung. Điều này không chỉ ảnh hưởng đến thị trường AI mà còn có thể lan rộng sang nhiều phân khúc khác, khiến giá DRAM tiếp tục chịu áp lực tăng trong thời gian tới.

Chia sẻ bài viết

Bình luận

( 0 bình luận )
Không có bình luận nào

Bình luận của bạn

Tin tức liên quan