VDO logo
Sản phẩm Linh kiện 24-12-2025

HBM3E chuẩn bị bước vào chu kỳ tăng giá mới khi AI tiếp tục “khát” bộ nhớ

Thị trường bộ nhớ hiệu năng cao đang đối mặt với một đợt điều chỉnh giá đáng chú ý. Trong bối cảnh nhu cầu AI tăng nhanh và nguồn cung chưa kịp mở rộng, HBM3E được dự báo sẽ tăng giá mạnh trong năm 2026, bất chấp việc HBM4 sắp bước vào giai đoạn thương mại hóa.

Theo Chosun Biz, sau khi NVIDIA được phê duyệt xuất khẩu chip AI H200 sang Trung Quốc, Samsung Electronics và SK hynix được cho là đã điều chỉnh tăng giá cung ứng HBM3E gần 20% cho các hợp đồng năm 2026. Động thái này được xem là khá hiếm, bởi HBM3E vốn đã trở thành dòng HBM chủ lực trong năm nay và từng được kỳ vọng sẽ hạ nhiệt khi HBM4 xuất hiện.

Tuy nhiên, thực tế thị trường lại đang đi theo hướng ngược lại. Việc các hãng công nghệ lớn liên tục tung ra bộ gia tốc AI mới sử dụng HBM3E khiến nhu cầu tiếp tục duy trì đà tăng ổn định, thậm chí vượt xa dự báo ban đầu.

H200 “mở cửa” sang Trung Quốc đẩy nhu cầu HBM3E vượt kỳ vọng

Một trong những yếu tố tác động mạnh nhất đến thị trường HBM3E là việc chip AI H200 của NVIDIA được phép xuất khẩu sang Trung Quốc. Theo các nguồn tin, mỗi H200 tích hợp tới sáu stack HBM3E, khiến nhu cầu bộ nhớ tăng vọt ngay khi các đơn hàng được kích hoạt

Reuters cho biết NVIDIA dự kiến sử dụng hàng tồn kho hiện có để đáp ứng các đơn hàng ban đầu, với quy mô giao hàng ước tính từ 5.000 đến 10.000 module, tương đương khoảng 40.000–80.000 chip H200. Song song đó, hãng cũng đang chuẩn bị kế hoạch mở rộng công suất sản xuất, với các đơn đặt hàng bổ sung dự kiến được mở từ quý II/2026.

HBM3E Samsung dự báo sẽ khan hàng và tăng giá vào năm 2026

Google, Amazon tiếp tục “hút” HBM3E cho thế hệ accelerator mới

Không chỉ NVIDIA, nhu cầu HBM3E còn được thúc đẩy bởi các dự án accelerator AI của Google và Amazon. TPU của Google và Trainium của Amazon đều sử dụng HBM3E được lên lịch bắt đầu xuất xưởng trong năm 2026.

Đáng chú ý, lượng HBM trên mỗi accelerator đang tăng nhanh. Theo báo cáo, dung lượng HBM tích hợp trên mỗi chip AI mới cao hơn khoảng 20–30% so với các thế hệ trước. TPU thế hệ thứ bảy của Google được cho là sử dụng tới tám stack HBM3E, trong khi Trainium3 của Amazon tích hợp bốn stack.

HBM4 chưa kịp “giải nhiệt” cho HBM3E

Dù HBM4 được kỳ vọng sẽ là bước tiến lớn tiếp theo của bộ nhớ AI, quá trình chuyển dịch sang thế hệ mới này lại đang tạo thêm áp lực cho HBM3E trong ngắn hạn. Samsung Electronics và SK hynix được cho là sẽ ưu tiên mở rộng sản xuất HBM4, khiến nguồn cung HBM3E tiếp tục bị siết chặt.

Các nhà phân tích dự báo cơ cấu doanh thu HBM trong năm tới sẽ vào khoảng 55% HBM4 và 45% HBM3E. HBM4 dự kiến bắt đầu đóng góp mạnh từ quý III/2026, nhưng trước thời điểm đó, HBM3E vẫn phải gánh phần lớn nhu cầu AI đang tăng nhanh.

Trong bối cảnh AI tiếp tục mở rộng ở quy mô toàn cầu, HBM3E nhiều khả năng sẽ duy trì vị thế then chốt lâu hơn dự kiến và việc tăng giá có thể chỉ mới là bước khởi đầu của một chu kỳ căng thẳng mới trên thị trường bộ nhớ.

Trong bối cảnh HBM3E được dự báo tăng giá mạnh do nhu cầu AI bùng nổ và nguồn cung tiếp tục bị siết chặt, việc chủ động kế hoạch bộ nhớ cho hạ tầng CNTT đang trở nên quan trọng hơn bao giờ hết. Với vai trò là đơn vị phân phối và tư vấn giải pháp CNTT doanh nghiệp, Công ty Cổ phần VDO sẵn sàng đồng hành cùng khách hàng trong việc lựa chọn, dự trữ và triển khai các giải pháp memory enterprise phù hợp cho AI, cloud và datacenter, giúp tối ưu chi phí đầu tư và giảm thiểu rủi ro biến động thị trường.

Mọi thông tin chi tiết về sản phẩm bộ nhớ Samsung, Micron, Innodisk… quý khách hàng vui lòng liên hệ với VDO theo:

Email: info@vdo.vn

https://dis.vdo.com.vn/

Hotline: 093 610 8858

 

Chia sẻ bài viết

Bình luận

( 0 bình luận )
Không có bình luận nào

Bình luận của bạn

Tin tức liên quan