TradingKey - Trong bối cảnh sức mạnh tính toán AI đang mở rộng theo cấp số nhân, chip nhớ từ lâu đã vượt xa vai trò truyền thống là các "linh kiện ngoại vi" máy tính để trở thành nguồn tài nguyên chiến lược cốt lõi, quyết định hiệu suất suy luận và các kịch bản triển khai của những mô hình AI. Khi Bộ nhớ băng thông cao (HBM) rơi vào tình trạng thiếu hụt nguồn cung "hố đen" chưa từng có, ngành công nghệ toàn cầu đang trải qua một cuộc tái cấu trúc hệ thống chưa từng thấy trong suốt 20 năm qua, điều này cũng mang lại cho các nhà đầu tư một chiều hướng hoàn toàn mới để đánh giá giá trị. Đối với những nhà đầu tư tìm kiếm sự tăng trưởng dài hạn, giá trị đầu tư của lĩnh vực bộ nhớ đang được định nghĩa lại.
Vào năm 2026, khi các mô hình AI lớn tiến bộ nhanh chóng, Bộ nhớ băng thông cao (HBM) đã trở thành chất xúc tác cốt lõi khơi mào cho một cuộc chuyển đổi toàn cầu trong ngành công nghệ. Khi các mô hình AI đẩy nhanh tốc độ thâm nhập từ huấn luyện trên nền tảng đám mây sang suy luận tại biên, chip nhớ đã trở thành nguồn tài nguyên chiến lược then chốt quyết định hiệu suất tính toán AI và việc triển khai ứng dụng. Sự thay đổi cơ bản trong cấu trúc nhu cầu này đang đẩy ngành công nghệ toàn cầu vào một cuộc "tranh giành nguồn cung" chưa từng có, khi tất cả mọi người từ nhà sản xuất chip đến nhà sản xuất thiết bị đầu cuối đều cảm nhận được áp lực từ nguồn cung bộ nhớ thắt chặt.
Sự lo ngại trong ngành đang lan rộng qua nhiều kênh khác nhau. Tổng Giám đốc MSI, Golden Chiang, đã công khai tuyên bố rằng năm 2026 là thách thức nghiêm trọng nhất mà công ty phải đối mặt kể từ khi thành lập. Ông nhớ lại rằng trước đây, chỉ cần ban lãnh đạo công ty trực tiếp can thiệp, họ luôn có thể đảm bảo được một lượng hỗ trợ năng suất nhất định từ các nhà cung cấp. Tuy nhiên, hiện nay, ngay cả khi các CEO của những gã khổng lồ công nghệ trực tiếp đến thăm, họ thường nhận được câu trả lời: "Thực sự không còn hàng dự trữ". Sự đảo ngược hoàn toàn về quyền thương lượng trong chuỗi cung ứng này phản ánh sống động tình trạng mất cân bằng nghiêm trọng giữa cung và cầu trên thị trường bộ nhớ hiện nay.
Việc tổ chức hội nghị các nhà phát triển AI toàn cầu Nvidia GTC 2026 đã tiếp tục thổi bùng ngọn lửa cạnh tranh trên thị trường bộ nhớ. Nvidia ( NVDA) CEO Jensen Huang đã chính thức công bố kiến trúc Feynman vốn được đồn đại từ lâu trong bài phát biểu then chốt của mình. Nền tảng tính toán thế hệ mới này sẽ trang bị Bộ nhớ băng thông cao thế hệ thứ sáu (HBM4E) và thậm chí là công nghệ HBM5 tiên tiến hơn. Việc làm rõ lộ trình kỹ thuật này chắc chắn sẽ làm gia tăng cuộc đua công nghệ giữa ba nhà sản xuất bộ nhớ lớn là Samsung, SK Hynix và Micron ( MU )—trong lĩnh vực HBM, đẩy nhanh quá trình chuyển dịch các nguồn lực của ngành sang các chip lưu trữ băng thông cao.
Với tư cách là những công ty chủ chốt trong ngành lưu trữ toàn cầu, ba nhà sản xuất lớn đã trình diễn các kết quả hợp tác mới nhất của họ với Nvidia tại hội nghị.
Samsung Electronics lần đầu tiên trình làng chip nhớ HBM4E thế hệ mới. Sản phẩm này sử dụng công nghệ Hybrid Copper Bonding (HCB) sáng tạo, cho phép xếp chồng chip từ 16 lớp trở lên đồng thời giảm nhiệt trở hơn 20%, tạo nền tảng để cải thiện hơn nữa sức mạnh tính toán AI. SK Hynix tập trung trình diễn khả năng sản xuất hàng loạt các sản phẩm HBM4 và các giải pháp lưu trữ băng thông cao được tùy chỉnh cho GPU Rubin của Nvidia. Micron Technology nhấn mạnh bước đột phá trong công nghệ 1́γ DRAM và danh mục sản phẩm lưu trữ được tối ưu hóa cho các trung tâm dữ liệu.
Thông qua các màn trình diễn kỹ thuật này, ba nhà sản xuất đang cố gắng củng cố vị thế của mình tại các đỉnh cao công nghệ của lĩnh vực bộ nhớ AI.
Tuy nhiên, áp lực cung ứng trên thị trường bộ nhớ toàn cầu đang ngày càng gia tăng. Công đoàn Điện tử Samsung Quốc gia (NSEU), công đoàn lớn nhất tại Samsung Electronics, đã thông qua nghị quyết tổng đình công với hơn 90% số phiếu thuận, dự kiến thực hiện hành động tập thể kéo dài 18 ngày bắt đầu từ tháng 5/2026.
Cuộc tranh chấp lao động này, bắt nguồn từ hệ thống tiền lương và tiền thưởng, sẽ tác động trực tiếp đến nhà máy bán dẫn của Samsung tại Pyeongtaek, Seoul, và dự kiến sẽ ảnh hưởng đến gần một nửa công suất của cơ sở này. Vì nhà máy Pyeongtaek đảm nhận các nhiệm vụ cung ứng quan trọng cho các sản phẩm DRAM và HBM toàn cầu, cuộc đình công này rất có thể sẽ trở thành một cú sốc cung ứng cho thị trường chip toàn cầu, đẩy giá các sản phẩm bộ nhớ lên cao hơn nữa.
Đồng thời, thị trường bộ nhớ toàn cầu đang bước vào một làn sóng tăng giá lịch sử.
Samsung Electronics đã hoàn tất các cuộc đàm phán giá cung ứng DRAM vào tháng trước, với giá trung bình của DRAM đa dụng tăng vọt khoảng 100% so với quý trước; giá của một số sản phẩm DRAM máy chủ thậm chí còn tăng nhiều hơn. SK Hynix và Micron Technology cũng theo sau, hoàn tất các cuộc đàm phán hợp đồng cung ứng quý 1 với mức tăng tương tự. Mô hình tăng giá tập thể của ba nhà sản xuất bộ nhớ lớn về cơ bản đã hình thành.
Động lực cốt lõi của sự tăng giá này chắc chắn là sự bùng nổ của làn sóng AI. Với việc phổ cập nhanh chóng quá trình huấn luyện mô hình AI lớn toàn cầu và mở rộng trung tâm dữ liệu, bộ nhớ đã phát triển từ một linh kiện điện tử thông thường thành một nguồn tài nguyên chiến lược hỗ trợ phát triển sức mạnh tính toán AI. Dữ liệu cho thấy nhu cầu DRAM từ các máy chủ AI gấp 8 đến 10 lần so với các máy chủ truyền thống, trong khi chi tiêu vốn cho hạ tầng AI của các gã khổng lồ công nghệ toàn cầu dự kiến đạt 650 tỷ USD vào năm 2026, tăng vọt khoảng 80% so với năm ngoái. Sự tăng trưởng nhu cầu này chưa có điểm đảo chiều rõ rệt và dự kiến sẽ tiếp tục thúc đẩy sự thịnh vượng của thị trường bộ nhớ trong nhiều năm tới.
Trong khi nhu cầu vẫn ở mức cao, khoảng cách cung ứng trên thị trường bộ nhớ đang ngày càng nới rộng.
Ba gã khổng lồ—Samsung, SK Hynix và Micron—đều đã tập trung hơn 80% công suất tiên tiến của mình vào các sản phẩm bộ nhớ dành riêng cho AI có lợi nhuận cao hơn, làm thu hẹp đáng kể khả năng cung ứng cho DRAM đa dụng. Kết hợp với chu kỳ mở rộng dài và các rào cản kỹ thuật cao vốn có trong sản xuất chip nhớ, thị trường sẽ không thể nhanh chóng giải phóng công suất mới trong ngắn hạn.
Nhằm xoa dịu nỗi lo chung của thị trường về tình trạng thiếu hụt, đồng Giám đốc điều hành Samsung Jun Young-hyun đã đưa ra một tuyên bố gây bất ngờ tại cuộc họp cổ đông, cho biết công ty đang cân nhắc chuyển đổi các hợp đồng bộ nhớ từ chu kỳ hàng quý truyền thống sang các thỏa thuận dài hạn từ 3 đến 5 năm. Chiến lược chốt giữ công suất dài hạn này nhấn mạnh rằng nhu cầu bộ nhớ AI sẽ vẫn duy trì mạnh mẽ trong nhiều năm tới.
Cùng ngày, Samsung Electronics và AMD ( AMD) đã công bố ký kết biên bản ghi nhớ (MOU) nhằm mở rộng hợp tác chiến lược trong các công nghệ tính toán và bộ nhớ trí tuệ nhân tạo thế hệ mới. Samsung sẽ trở thành nhà cung cấp chính chip bộ nhớ băng thông cao HBM4 cho các bộ xử lý đồ họa (GPU) Instinct MI455X thế hệ tiếp theo của AMD và cung cấp các giải pháp DRAM tiên tiến cho bộ xử lý trung tâm (CPU) EPYC thế hệ thứ sáu của AMD với tên mã là "Venice." Cả hai bên cũng đồng ý tìm hiểu khả năng hợp tác trong lĩnh vực đúc chip, theo đó Samsung sẽ cung cấp dịch vụ đúc cho các sản phẩm thế hệ tiếp theo của AMD.
Đây là chuyến thăm Hàn Quốc đầu tiên của CEO AMD Lisa Su kể từ khi nhậm chức vào năm 2014. Bà cũng đã đến thăm trụ sở của Naver, nơi hai công ty công bố mở rộng hợp tác trong hạ tầng AI. Chuyến đi của bà Su nhằm tăng cường quan hệ đối tác với các hãng công nghệ Hàn Quốc để đối trọng với sự cạnh tranh từ Nvidia trên thị trường chip AI.
Theo dữ liệu từ Counterpoint, Samsung nắm giữ khoảng 22% thị trường HBM toàn cầu, trong khi đơn vị dẫn đầu thị trường là SK Hynix chiếm 57% thị phần chi phối. Sự hợp tác sâu rộng của Samsung với AMD sẽ giúp thu hẹp khoảng cách với các đối thủ trong lĩnh vực HBM đang tăng trưởng nóng, đồng thời làm nổi bật cuộc cạnh tranh gay gắt giữa các nhà sản xuất chip toàn cầu để đảm bảo nguồn cung bộ nhớ tiên tiến.
Thị trường bộ nhớ toàn cầu hiện đang bị chi phối bởi ba "gã khổng lồ": Micron Technology của Mỹ, cùng Samsung Electronics và SK Hynix của Hàn Quốc. Ba công ty này kiểm soát phần lớn công suất chip nhớ toàn cầu, đồng thời các chiến lược sản phẩm và điều chỉnh công suất của họ có tác động quyết định đến giá thị trường và các xu hướng công nghệ.
Tận dụng lợi thế của người tiên phong trong công nghệ HBM, SK Hynix đang nắm giữ 57% thị phần HBM toàn cầu, trở thành nhà lãnh đạo ngành không thể bàn cãi. Công ty này tích hợp sâu rộng với các khách hàng tính toán AI cốt lõi như NVIDIA, AMD và Google ( GOOGL ), Microsoft ( MSFT ), cùng các khách hàng tính toán AI cốt lõi khác, giành được 2/3 đơn hàng HBM4 thế hệ Rubin của NVIDIA và quyền cung ứng độc quyền cho chip Maia 200 của Microsoft.
Hiệu suất của công ty được dự báo sẽ tăng trưởng bùng nổ vào năm 2026, với giá bán trung bình của DRAM dự kiến tăng vọt 243% so với cùng kỳ năm ngoái. Biên lợi nhuận hoạt động kỳ vọng sẽ vượt mức 70%, trong khi lợi nhuận trên vốn chủ sở hữu (ROE) được dự báo sẽ đạt mức cao kỷ lục trên 80%.
Với tư cách là nhà sản xuất bộ nhớ lớn nhất thế giới, Samsung Electronics đang đẩy nhanh các nỗ lực nhằm thu hẹp khoảng cách kỹ thuật trong lĩnh vực HBM. Ngoài việc ra mắt chip nhớ HBM4E thế hệ tiếp theo tại hội nghị GTC 2026, công ty đã ký kết thỏa thuận chiến lược với AMD để trở thành nhà cung cấp HBM4 chính cho dòng GPU Instinct MI455X thế hệ mới của AMD, đồng thời sẽ cung cấp các giải pháp bộ nhớ tiên tiến cho CPU EPYC thế hệ thứ sáu của hãng này.
Ngoài ra, Samsung đang cân nhắc việc chuyển đổi các hợp đồng bộ nhớ từ ký kết hàng quý sang các thỏa thuận dài hạn từ ba đến năm năm để đảm bảo nhu cầu bộ nhớ AI tăng trưởng cao trong tương lai. Mặc dù thị phần HBM hiện tại của Samsung chỉ đạt 22%, nhưng năng lực sản xuất khổng lồ và nguồn lực vốn mạnh mẽ giúp công ty có vị thế để dần thu hẹp khoảng cách với SK Hynix sau năm 2027.
Micron Technology đã áp dụng chiến lược cạnh tranh khác biệt hóa, quyết đoán rút khỏi mảng kinh doanh thương hiệu lưu trữ tiêu dùng để tập trung toàn bộ nguồn lực vào các lĩnh vực có giá trị gia tăng cao như trung tâm dữ liệu và AI. Sự chuyển dịch chiến lược này đã mang lại kết quả đáng kể, với giá cổ phiếu của công ty tăng vọt 168% vào năm 2026, trở thành "ngựa ô" lớn nhất trên thị trường bộ nhớ toàn cầu.
Micron đã đạt được bước đột phá trong công nghệ DRAM 1γ, với hiệu suất chip nhớ tăng 15% và mức tiêu thụ điện năng giảm 20%, trong khi tốc độ cải thiện tỷ lệ thành phẩm đã phá vỡ các kỷ lục của ngành. Trong lĩnh vực HBM, công suất HBM của Micron cho năm tài chính 2026 đã được bán hết hoàn toàn và công ty dự kiến sẽ tăng thị phần HBM lên hơn 20% vào năm 2027.
Xét từ góc độ đầu tư, ngành chip nhớ đã chuyển dịch từ các mã cổ phiếu chu kỳ truyền thống sang quỹ đạo 'Davis Double Play' mới.
Một mặt, sự tăng trưởng liên tục của giá chip nhớ đã trực tiếp thúc đẩy lợi nhuận của các nhà sản xuất tăng mạnh; mặt khác, vị thế của chip nhớ như một nguồn lực chiến lược cốt lõi cho sức mạnh tính toán AI ngày càng trở nên nổi bật, khiến định giá thị trường chuyển dịch từ cổ phiếu chu kỳ sang cổ phiếu tăng trưởng công nghệ, kéo theo hệ số P/E tăng đều đặn.
Các ngân hàng đầu tư lớn đã liên tục nâng dự báo lợi nhuận cho ba gã khổng lồ ngành chip nhớ. Citi ( C) dự báo lợi nhuận hoạt động của Samsung Electronics sẽ đạt 155 nghìn tỷ KRW vào năm 2026, tăng 253% so với năm trước; Morgan Stanley ( MS) dự báo lợi nhuận hoạt động của SK Hynix sẽ đạt 225 nghìn tỷ KRW vào năm 2027; trong báo cáo quý 2 năm tài chính 2026 vừa công bố, Micron Technology đã đạt tỷ suất lợi nhuận gộp 74,4%.
Mặc dù thị trường chip nhớ hiện đang ở mức cao, siêu chu kỳ của ngành được kỳ vọng sẽ kéo dài đến năm 2027 hoặc lâu hơn, nhờ sự tăng trưởng dài hạn của nhu cầu tính toán AI và các rào cản kỹ thuật trong việc mở rộng công suất.