TradingKey - Nhờ vào nhu cầu AI mạnh mẽ, dung lượng bộ nhớ trên mỗi hệ thống tăng lên và phản ứng nguồn cung chậm chạp, năm 2026 sẽ là năm của chu kỳ bộ nhớ. Micron Technology (MU) hiện đang ở vị thế cạnh tranh tuyệt vời với HBM3E và đang hướng tới việc đưa HBM4E vào các nền tảng Vera Rubin của Nvidia trong nửa cuối năm 2026.
Nhu cầu hiện đang rất mạnh mẽ, với công suất HBM năm 2026 được cho là đã được đặt hết, và kết quả kinh doanh ngắn hạn dự kiến sẽ cho thấy sự tăng trưởng mạnh mẽ về doanh thu và lợi nhuận. Mặc dù cổ phiếu MU đã có đà tăng trưởng tốt, mức định giá dựa trên các ước tính dự báo vẫn thấp hơn mức trung bình chung của thị trường.
Micron Technology là một nhà sản xuất bộ nhớ. Công ty sản xuất bộ nhớ DRAM và NAND flash, cũng như Bộ nhớ băng thông cao (HBM) để sử dụng trong điện thoại thông minh, máy tính cá nhân (PC), máy chủ trung tâm dữ liệu và các bộ tăng tốc Trí tuệ nhân tạo (AI). Khác với các nhà sản xuất chip như Nvidia (NVDA), những đơn vị tự quyết định giá bán sản phẩm cuối cùng và thuê bên khác sản xuất, Micron bán các linh kiện mang tính hàng hóa cao hơn với mức giá khó dự báo hơn. Quyền năng ấn định giá trong mảng bộ nhớ được chi phối bởi sự cân bằng cung cầu chứ không phải thương hiệu, và do đó đây là một ngành có tính chu kỳ. Trong làn sóng xây dựng hạ tầng cho AI hiện nay, bộ nhớ đã trở thành một nút thắt cổ chai, và động lực đó đã đưa Micron vào đúng vị trí trung tâm của nhu cầu về HBM và DRAM cho trung tâm dữ liệu.
Trong khoảng thời gian này, cổ phiếu Nvidia tăng trưởng chậm, trong khi cổ phiếu MU đã tăng 239,1%. Nhiều nguồn tin cho thấy cổ phiếu MU đã tăng 250% trong 6 tháng qua. So với những năm trước, chu kỳ phát triển này đánh dấu sự chuyển dịch hướng tới lợi nhuận của các cổ phiếu ngành bộ nhớ, khi quá trình chuyển đổi từ giai đoạn suy thoái sang giai đoạn tăng trưởng của lĩnh vực này chủ yếu được dẫn dắt bởi AI. Sự điều chỉnh này chủ yếu bắt nguồn từ sự thay đổi về khối lượng và giá cả của lượng bộ nhớ sử dụng trong các trung tâm dữ liệu và HBM, thay vì do các yếu tố tiếp thị.
Nửa cuối năm 2025 là một cú sốc mạnh. Việc xây dựng máy chủ AI đã tiêu thụ hầu hết HBM, DRAM và NAND. Giá hợp đồng tăng cao và thời gian giao hàng kéo dài trong nhiều quý. Nhận định chung của ngành là nguồn cung vẫn sẽ thắt chặt ít nhất cho đến năm 2027, xét đến khoảng thời gian cần thiết để các đợt mở rộng công suất đi vào hoạt động. Các báo cáo xu hướng cho thấy thị trường bộ nhớ có thể tăng 134% vào năm 2026 và tăng thêm 53% vào năm 2027, đạt doanh thu ước tính 843 tỷ USD. Đồng thời, các công ty ở cấp độ toàn hệ thống, từ bộ tăng tốc đến hệ thống lưu trữ, đã rút ngắn chu kỳ nâng cấp thường xuyên hơn. Trong lĩnh vực AI, nhịp độ nâng cấp thậm chí còn bị thu hẹp lại theo năm hoặc nhanh hơn, từ đó tạo nền tảng cho việc đặt hàng bộ nhớ ổn định.
Nhiều yếu tố đang hội tụ để năm 2026 trở thành một năm chu kỳ đối với ngành bộ nhớ. Thứ nhất, các máy chủ AI có số lượng DRAM hệ thống và HBM cao hơn đáng kể so với máy chủ truyền thống, trong khi tổng quy mô triển khai vẫn đang tiếp tục tăng lên. Thứ hai, các máy chủ này cần nhiều bộ nhớ flash NAND hơn ở lớp lưu trữ để phục vụ các tập dữ liệu khổng lồ cho quá trình đào tạo và suy luận, đồng nghĩa với việc chúng yêu cầu dung lượng bộ nhớ lớn hơn mức mà một khe cắm máy chủ đơn lẻ có thể cung cấp. Thứ ba, tốc độ tăng trưởng nguồn cung đang chậm hơn so với nhu cầu. Micron đang lên kế hoạch bổ sung công suất sản xuất mới vào năm 2027 và 2028, và các đối thủ cùng ngành cũng đang mở rộng, nhưng phải mất nhiều năm để các nhà máy xây mới và các tiến trình sản xuất tiên tiến có thể nâng cao quy mô. Tổng hợp lại, năm 2026 dường như sẽ là năm trọn vẹn đầu tiên mà tình trạng thắt chặt cung cầu, diễn biến giá cả và tăng trưởng sản lượng cùng cộng hưởng để tạo ra cú hích đáng kể cho cả doanh thu và biên lợi nhuận của toàn ngành.
Chiến lược của Micron đang ở rất gần. Dòng HBM3E của hãng cho phép dung lượng cao hơn khoảng 50% so với các sản phẩm của đối thủ cạnh tranh với mức tiêu thụ điện năng thấp hơn khoảng 30%, một sự kết hợp rất hấp dẫn đối với những đơn vị vận hành khối lượng công việc AI dựa trên hiệu suất trên mỗi watt.
Công ty có kế hoạch bắt đầu sản xuất HBM4E vào năm 2026, với bước tiến về dung lượng cao hơn khoảng 60% so với HBM3E và mức năng lượng thấp hơn khoảng 20%. Nút quy trình mới này sẽ là nền tảng cho dòng Nvidia Vera Rubin được sản xuất từ quý 2/2026. Những dấu hiệu sớm cho thấy toàn bộ lượng HBM cho trung tâm dữ liệu năm 2026 của Micron đã được bán hết, dựa trên bình luận của ban quản lý, điều này ngụ ý rằng mảng HBM (vốn đạt khoảng 35 tỷ USD vào năm 2025) có thể tăng trưởng với tốc độ tăng trưởng kép hàng năm (CAGR) 40% lên 100 tỷ USD vào năm 2028.
Các kết quả ngắn hạn có thể củng cố xu hướng đó. Trong quý tài chính thứ hai của năm 2026 kết thúc vào ngày 28/2, Micron dự kiến doanh thu sẽ đạt 18,7 tỷ USD, tăng 132% so với cùng kỳ năm ngoái (YoY), với EPS tăng khoảng 480% YoY lên 8,19 USD so với năm trước. Mảng bộ nhớ đám mây của công ty (bao gồm cả HBM) đã tăng gần gấp đôi lên mức 5,3 tỷ USD trong quý trước và dự kiến sẽ còn tăng cao hơn nữa trong quý hai. Nếu các kết quả và dự báo định hướng ở mức gần với những con số này, đó có thể là một chất xúc tác lớn cho cổ phiếu Micron.
Thu nhập trên mỗi cổ phiếu (EPS) trong 12 tháng gần nhất là 10,52 và dựa trên con số này, hệ số giá trên thu nhập (P/E) của MU tính theo lợi nhuận quá khứ là khoảng 33. Tuy nhiên, triển vọng tương lai lại hoàn toàn khác biệt. Con số dự báo đồng thuận cho EPS của MU trong cả năm tài chính 2026 là 34,16 USD, giúp MU có mức P/E dự phóng khoảng 11–12. Mức này thấp hơn nhiều so với P/E dự phóng ở ngưỡng 25 của chỉ số S&P 500 và chỉ bằng khoảng 50% so với Nasdaq-100. Một số ước tính khi tính đến năm tài chính 2027 đã dự báo EPS đạt 44,55 USD, cho thấy sự tăng trưởng trong năm tiếp theo nhưng với tốc độ chậm lại sau đợt bùng nổ đầu tiên. Chính sự khác biệt giữa P/E trượt và P/E dự phóng đã khiến cổ phiếu MU có vẻ "đắt" khi xét theo P/E trượt và "rẻ" khi xét theo P/E dự phóng. Do đó, thị trường có xu hướng định giá các cổ phiếu chu kỳ dựa trên các chu kỳ giá và công suất hiện tại. Tuy nhiên, vì chúng ta đang ở trong giai đoạn được thúc đẩy bởi AI, lợi nhuận sẽ duy trì ở mức cao lâu hơn so với một chu kỳ thông thường.
Việc so sánh cũng đòi hỏi sự chính xác. Nvidia và Advanced Micro Devices (AMD) là các nhà thiết kế bộ vi xử lý đầu cuối và đối tác hệ sinh thái; họ cũng là những khách hàng lớn, nhưng không phải đối thủ cạnh tranh trong mảng bộ nhớ. Các đối thủ của Micron trong lĩnh vực bộ nhớ là SK Hynix và Samsung ở mảng DRAM/HBM, còn ở mảng NAND là Samsung, Kioxia và Western Digital (WDC). Không có đối thủ cạnh tranh chuyên về bộ nhớ (pure-play) nào khác niêm yết chính tại Mỹ. MU và WDC là những đối thủ chuyên về bộ nhớ duy nhất niêm yết chính tại Mỹ.
SK Hynix được biết đến là đối thủ lớn thứ hai chiếm ưu thế trên thị trường HBM với thị phần đáng kể, trong khi Samsung giữ vị thế mạnh mẽ hơn ở các loại bộ nhớ đa dạng hơn; tuy nhiên, cả hai đều không niêm yết tại Mỹ, điều này khiến một số nhà đầu tư khó tiếp cận hơn và khó có thể đưa vào các bộ chỉ số. Sự góp mặt của Western Digital mang lại cơ hội tiếp cận NAND flash và HDD, đồng thời định giá và các bước đi chiến lược của công ty này có thể tạo ra tiềm năng tăng giá khi chu kỳ lưu trữ phục hồi, mặc dù họ không có DRAM hay HBM – vốn là tâm điểm tích lũy lợi nhuận AI cao cấp. Micron có danh mục tiếp cận chuỗi bộ nhớ AI rộng hơn Western Digital với HBM, DRAM cho trung tâm dữ liệu và NAND, và nguồn cung HBM năm 2026 của hãng được cho là đã cháy hàng. Micron cũng đang ở vị thế sẵn sàng cho HBM4E kịp lúc cho nền tảng AI thế hệ tiếp theo. Do đó, đối với cơ hội đầu tư cụ thể vào mảng bộ nhớ hỗ trợ AI có vốn hóa lớn và niêm yết tại Mỹ, Micron là lựa chọn thỏa đáng và hợp lý nhất.
Mọi người cũng biết rằng thị trường bộ nhớ vẫn có tính chu kỳ rất mạnh. Giá cả cũng nhạy cảm với việc gia tăng nguồn cung, và các đối thủ cũng đang mở rộng công suất. Khi nguồn cung bắt đầu bắt kịp nhu cầu, đà tăng giá có thể chậm lại hoặc thậm chí đảo chiều. Rủi ro từ phía cầu cũng tồn tại. OpenAI cũng gợi ý rằng họ có thể cắt giảm cường độ chi tiêu hạ tầng dự kiến đến năm 2030 xuống còn khoảng 600 tỷ USD so với mức ước tính 1,4 nghìn tỷ USD trước đó, và nếu các bên khác cũng làm theo, chi phí vốn (Capex) cho AI vốn được ngành kỳ vọng cao có thể thấp hơn các dự báo lạc quan nhất. Ngược lại, một số tên tuổi hàng đầu vẫn kỳ vọng thấy các mức đầu tư khổng lồ; CEO của Nvidia đã nói về con số "hàng nghìn tỷ" mỗi năm vào hạ tầng AI đến năm 2030. Chính hành trình giữa hai thái cực đó sẽ làm nóng hoặc làm nguội giá cổ phiếu Micron.