TradingKey - NVIDIA ( NVDA) CEO Jensen Huang mới đây đã gửi đi một tín hiệu mạnh mẽ tới các nhà sản xuất chip nhớ toàn cầu tại Hội nghị Công nghệ Morgan Stanley: hãy cứ mở rộng sản xuất; NVIDIA sẽ thu mua toàn bộ.
Trong khi những người tham dự hội nghị nhìn chung đều coi sự hạn chế về nguồn lực trong các lĩnh vực bộ nhớ, tấm wafer, đóng gói và năng lượng là những nút thắt đối với ngành công nghiệp AI, ông Huang lại đưa ra một tuyên bố đầy bất ngờ khi khẳng định rằng tình trạng thiếu hụt nguồn cung chip là "tin tuyệt vời" đối với NVIDIA.
Tại hội nghị, ông Huang đã giải thích về logic độc đáo của mình liên quan đến các hạn chế về nguồn lực: trong một môi trường mà quỹ đất xây dựng trung tâm dữ liệu, điện năng, không gian và các nguồn lực khác bị giới hạn, các quyết định mua sắm của khách hàng sẽ trở nên thận trọng hơn; thay vì thử nghiệm và sai sót, họ có xu hướng lựa chọn ngay các giải pháp có hiệu suất cao nhất.
Với nguồn vốn dồi dào và lợi thế về quy mô, NVIDIA có thể chốt giữ nguồn cung khổng lồ trên toàn bộ chuỗi ngành, qua đó nghiễm nhiên trở thành bên hưởng lợi lớn nhất từ xu hướng này. Ông thậm chí còn mạnh dạn nói với các nhà sản xuất DRAM: "Cứ xây dựng các nhà máy sản xuất bộ nhớ đi; dù các bạn có thêm bao nhiêu công suất, NVIDIA cũng sẽ tiêu thụ hết."
Để giúp thế giới bên ngoài hiểu được logic "ngược đời" này, ông Huang nhấn mạnh rằng mình "yêu thích những sự hạn chế".
Ông giải thích rằng khi nguồn lực khan hiếm, khách hàng buộc phải lựa chọn chính xác loại phần cứng cung cấp chỉ số "token trên mỗi watt" cao nhất, và NVIDIA hiện là công ty duy nhất trên thế giới có khả năng xây dựng toàn bộ một "nhà máy AI" cho khách hàng từ con số không – một năng lực dịch vụ đầu cuối mà các đối thủ cạnh tranh khó có thể sánh kịp.
NVIDIA đã đảm bảo được các linh kiện quan trọng như bộ nhớ, tấm wafer và đóng gói CoWoS cần thiết cho việc triển khai "nhà máy AI" quy mô lớn; ngay cả khi giá DRAM tăng lên, công ty cũng sẽ không cắt giảm nỗ lực thu mua, qua đó đưa ra những kỳ vọng rõ ràng về nhu cầu cho các nhà sản xuất như Samsung, SK Hynix và Micron.
Đằng sau những tuyên bố của ông Huang là nhu cầu khổng lồ về nguồn lực bộ nhớ từ các nền tảng AI thế hệ tiếp theo của NVIDIA. Dung lượng bộ nhớ băng thông cao (HBM) được hỗ trợ bởi chip GB300 hiện tại đã đạt mức 288GB, tăng đáng kể so với mức 192GB của thế hệ GB200 trước đó.
Nền tảng Vera Rubin sắp tới sẽ duy trì mức dung lượng 288GB nhưng nâng cấp từ thông số HBM3E lên HBM4.
HBM4 sử dụng thiết kế xếp chồng 16 lớp, phức tạp hơn so với quy trình xếp chồng 12 lớp của HBM3E, dẫn đến tỷ lệ tổn thất hiệu suất cao hơn và tiêu thụ nguồn lực bộ nhớ trên mỗi đơn vị đầu ra lớn hơn đáng kể.
Trong khi đó, bức tranh nguồn cung bộ nhớ băng thông cao (HBM4) cho bộ tăng tốc AI thế hệ tiếp theo của NVIDIA, Vera Rubin, đã dần trở nên rõ nét với việc cả Samsung Electronics và SK Hynix đều lọt vào danh sách nhà cung cấp cốt lõi.
Theo các báo cáo, hai gã khổng lồ bộ nhớ Hàn Quốc đã được tích hợp vào hệ thống cung ứng linh kiện cho Vera Rubin; do chu kỳ sản xuất HBM4 từ tấm wafer đến đóng gói kéo dài hơn sáu tháng, hai công ty này có thể bắt đầu sản xuất hàng loạt ngay trong tháng này,
Về phương diện phân bổ thị phần cung ứng, SK Hynix dự kiến sẽ chiếm hơn một nửa tổng lượng thu mua HBM của NVIDIA (bao gồm cả các sản phẩm HBM3E và HBM4) vào năm 2026, trong khi Samsung đang đứng trước cơ hội giành được phần lớn đơn hàng cho HBM4 dành riêng cho Vera Rubin.
Dữ liệu dự báo ngành cho thấy SK Hynix sẽ vẫn là đơn vị dẫn đầu ngành với 50% thị phần công suất bit HBM toàn cầu, mặc dù con số này đã giảm so với mức 59% vào năm 2025; thị phần toàn cầu của Samsung dự kiến sẽ tăng từ 20% lên 28%, cho thấy đà bắt kịp đáng kể.