Vào tháng 9 năm ngoái, Jensen Huang và Sam Altman đã công bố một quan hệ đối tác chiến lược gây chấn động thị trường: Nvidia sẽ cung cấp cho OpenAI 10 gigawatt năng lượng tính toán và đầu tư tới 100 tỷ USD. Tại thời điểm đó, thị trường tin rằng ngôi vương của kỷ nguyên AI sẽ được chia sẻ bởi hai công ty này.
Tuy nhiên, chỉ hai tháng sau, tình thế đã đảo ngược. Một hồ sơ gửi lên SEC vào tháng 11 cho thấy thực tế chưa có khoản tiền nào được giải ngân. Kịch tính tiếp tục leo thang vào cuối tháng 1 năm nay, khi Jensen Huang, trước sức ép của các phóng viên tại Đài Loan, đã trực tiếp phủ nhận toàn bộ sự việc: “Chúng tôi chưa bao giờ có kế hoạch đầu tư 100 tỷ USD. Đó chưa bao giờ là một cam kết.” Giọng điệu của ông không hề hời hợt mà mang sắc thái của một sự đính chính miễn cưỡng. Thực tế là OpenAI đã mời Nvidia đầu tư lên tới 100 tỷ USD, nhưng mọi khoản đầu tư sẽ được thực hiện theo từng bước, tùy thuộc vào tiến độ.

Nguồn: Yahoo News
Chờ đã — chỉ mới bốn tháng trước, thông báo về con số 100 tỷ USD đó còn được đón nhận trong sự phấn khích trên sân khấu. Làm thế nào mà nó lại trở thành một vấn đề đầy gượng gạo như vậy? Chuyện gì đã thực sự xảy ra trong khoảng thời gian đó?
Câu trả lời nằm ở vòng gọi vốn mới nhất của OpenAI vào đầu năm 2026. Theo Bloomberg, Nvidia hiện đang đàm phán để đầu tư khoảng 20 tỷ USD vào OpenAI; nếu thành công, đây sẽ là khoản đầu tư đơn lẻ lớn nhất của Nvidia vào công ty này. Đồng thời, tổng quy mô mục tiêu cho vòng gọi vốn này của OpenAI lên tới 100 tỷ USD, với Amazon có thể rót tới 50 tỷ USD và SoftBank lên đến 30 tỷ USD. Nói cách khác, đóng góp thực tế của Nvidia hiện nay có khả năng chỉ gần bằng một phần năm con số “lên tới 100 tỷ USD” được giật tít ban đầu.
Bạn đã thấy vấn đề chưa? Trong vòng gọi vốn này, Amazon và SoftBank sẽ nắm giữ tầm ảnh hưởng lớn hơn nhiều so với Nvidia. Nếu OpenAI IPO vào năm 2026 — như các bước chuẩn bị đang được tiến hành — hội đồng quản trị của công ty có khả năng sẽ bị chi phối bởi các cổ đông lớn này, thay vì Nvidia.
Quan trọng hơn, Amazon, với tư cách là công ty mẹ của AWS, không thể ngồi yên khi OpenAI phụ thuộc hoàn toàn vào GPU do một nhà cung cấp khác cung ứng. Họ sẽ thúc đẩy OpenAI áp dụng chip Trainium của chính mình, hoặc ít nhất là duy trì một thiết lập cân bằng giữa nhiều nhà cung cấp. Điều đó đồng nghĩa với việc Nvidia đang chuyển dịch từ vị thế “hệ thần kinh trung ương” của hệ sinh thái AI trở thành một trong số nhiều nhà cung cấp.
Đó là lý do tại sao Jensen Huang có vẻ không thoải mái tại Đài Loan. Đây không đơn thuần là một thương vụ kinh doanh thất bại; mà là việc Nvidia đang mất đi thế thượng phong trong cuộc chơi quyền lực AI.
Một báo cáo của Reuters vào tháng 2 đã làm cho xu hướng này trở nên rõ ràng hơn. OpenAI dần không hài lòng với hiệu suất suy luận của một số dòng chip mới nhất từ Nvidia, đặc biệt là đối với các khối lượng công việc như phát triển phần mềm và tương tác giữa AI với phần mềm, nơi khả năng phản hồi là yếu tố sống còn. Vì vậy, từ năm ngoái, OpenAI đã bắt đầu tìm kiếm các giải pháp thay thế, thảo luận với các startup như Cerebras và Groq. Họ đặc biệt tập trung vào các kiến trúc tích hợp lượng lớn SRAM trực tiếp trên một con chip, với mục tiêu xử lý khoảng 10% khối lượng công việc suy luận trong tương lai. Lý thuyết rất đơn giản: bằng cách giảm truy cập vào bộ nhớ ngoài, các loại chip này có thể tăng tốc độ suy luận.
Tất nhiên, OpenAI vẫn sẽ dựa vào GPU của Nvidia như “ngựa thồ” chính. Nhưng chính việc tìm kiếm nhà cung cấp “dự phòng” đã nói lên rất nhiều điều: ngay cả khách hàng quan trọng nhất của Nvidia cũng đang tích cực tìm cách giảm bớt sự phụ thuộc vào một nhà cung cấp duy nhất.
Tuy nhiên, đây vẫn chưa phải là mối đe dọa cốt lõi. Cơn đau đầu thực sự của Nvidia đến từ những đối thủ bỏ qua hoàn toàn GPU.
Trong hai năm qua, các mô hình nền tảng đã thay nhau chiếm lĩnh các tiêu đề. Năm ngoái, ChatGPT là ngôi sao không thể bàn cãi. Sau đó, Gemini của Google xuất hiện bất ngờ và thu hút mọi sự chú ý, và giờ đây Claude của Anthropic đã trở thành “con cưng” mới. Nhưng ít ai chú ý rằng mỗi công ty này lại có một chiến lược chip hoàn toàn khác biệt.
OpenAI vẫn chủ yếu sử dụng GPU của Nvidia (ngay cả khi họ đang tìm kiếm các giải pháp thay thế). Gemini của Google chạy trên các chip TPU tự phát triển. Còn Claude, “ngôi sao” hiện tại thì sao? Anthropic sử dụng kết hợp giữa Google TPU, Amazon Trainium và GPU của Nvidia, phân bổ khối lượng công việc một cách linh hoạt giữa chúng. Chiến lược đa đám mây này giúp cải thiện hiệu quả đồng thời tránh phụ thuộc vào bất kỳ nhà cung cấp đơn lẻ nào, và Nvidia chỉ là một trong số các lựa chọn.
Nói cách khác, trong số các mô hình AI hot nhất hiện nay, có hai mô hình được vận hành chủ yếu bởi các chip tùy chỉnh kiểu ASIC, và chỉ có OpenAI là vẫn dựa dẫm chính vào Nvidia.
Nhiều nhà đầu tư tin rằng bất kể ai thắng trong cuộc đua mô hình, Nvidia vẫn sẽ hưởng lợi. Thực tế khắc nghiệt hơn: những người chiến thắng cuối cùng đang ngày càng sử dụng các chip ASIC của riêng họ để lấn sân vào thị trường của Nvidia. Đó là cuộc chơi mà các công ty như Google và Amazon đang vận hành — sử dụng ASIC để kiểm soát chuỗi cung ứng đồng thời cắt giảm chi phí. Đối với Nvidia, đây là một mối đe dọa mang tính cấu trúc và dài hạn.
Trong một cuộc phỏng vấn gần đây, Jensen Huang đã đưa ra một nhận xét đầy ẩn ý. Ông nói rằng nếu có thể quay lại, ông đã đưa ra những lựa chọn khác với Anthropic. Vào thời điểm đó, Anthropic muốn hợp tác chặt chẽ với Nvidia nhưng cũng cần hỗ trợ tài chính, và Nvidia đơn giản là không thể đáp ứng được. Tuy nhiên, Amazon và Google thì có thể.
Nhìn bề ngoài, điều này nghe có vẻ như một lời than vãn về những hạn chế tài chính. Nhưng những gì ông thực sự muốn nói là: chúng ta đã để Amazon và Google giành lấy một trong những khách hàng tiềm năng nhất trong lĩnh vực này.
Anthropic trở thành một trong những công ty AI hot nhất hiện nay phần lớn nhờ vào sự hỗ trợ vốn từ Amazon và Google. Nguồn vốn đó đã cung cấp nguồn lực để họ phát triển các chip ASIC tùy chỉnh và quan trọng hơn là dựa dẫm nhiều vào các chip TPU của Google — từ đó loại bỏ dần GPU của Nvidia trong quy trình. Nếu Nvidia đầu tư vào Anthropic sớm hơn, Claude có lẽ vẫn đang chạy chủ yếu trên phần cứng của Nvidia thay vì trở thành một mối đe dọa cạnh tranh.
Đó là lý do tại sao “sự hối tiếc” của Huang giống như một nỗi niềm trăn trở kéo dài. Ông không chỉ mất đi một khách hàng lớn; mà còn mất đi cơ hội để định hình lại cục diện của toàn bộ ngành công nghiệp. Và cơ hội bị bỏ lỡ đó vẫn đang để lại dư âm trong cuộc chơi quyền lực AI.
Từ tháng 8 năm ngoái đến nay, giá cổ phiếu của Nvidia hầu như không biến động — trong khi Chỉ số Bán dẫn Philadelphia đã tăng khoảng 40% trong cùng kỳ. Nvidia đã có màn trình diễn kém xa so với thị trường chung.

Nguồn: TradingView
Điều trớ trêu là kỳ vọng lợi nhuận của Phố Wall đối với Nvidia vào năm 2026 là cực kỳ cao. Một số tổ chức hiện đang xây dựng mô hình với mức EPS hơn 9 USD cho năm nay, cao hơn nhiều so với mức khoảng 7,75 USD mà thị trường đang đồng thuận. Tuy nhiên, ngay cả những dự báo lợi nhuận ngất ngưởng như vậy cũng không chuyển hóa thành lực mua mạnh mẽ.
Đó là bởi vì thị trường không còn tập trung vào việc ai có thể sản xuất chip, mà là ai vẫn còn bảng cân đối kế toán đủ mạnh để mua chúng. Nút thắt đối với AI đã chuyển từ phía cung sang phía cầu.
Tình cảnh khó khăn của Oracle là minh chứng rõ nhất. Công ty này có khoảng 523 tỷ USD nghĩa vụ thực hiện còn lại trên sổ sách, trong đó khoảng 300 tỷ USD gắn liền với OpenAI. Nhưng để thực hiện các hợp đồng đó, Oracle sẽ cần phải cam kết chi ít nhất 350 tỷ USD cho chi phí đầu tư CNTT.
Thực tế rất tàn khốc. Tỷ lệ nợ trên vốn chủ sở hữu của Oracle đã vọt lên tới 500%, và quý gần nhất cho thấy dòng tiền tự do âm 10 tỷ USD. Vào tháng 12 năm 2025, Blue Owl Capital — vốn dự kiến là đối tác tài trợ chính cho dự án trung tâm dữ liệu 1 gigawatt trị giá 10 tỷ USD tại Michigan — đã rút khỏi thương vụ, một điều gần như không tưởng trong một môi trường tín dụng vốn đã rất quyết liệt. Cổ phiếu của Oracle đã mất sạch mức tăng 36% có được vào tháng 9 năm 2025, và hợp đồng hoán đổi rủi ro tín dụng (CDS) 5 năm của họ đã chạm mức cao kỷ lục. Morgan Stanley đã cắt giảm dự báo EPS năm 2030 xuống còn khoảng một nửa so với mục tiêu dài hạn trước đó của ban lãnh đạo Oracle. Kiểu “cắt giảm 50%” từ một nhà môi giới lớn như vậy chỉ làm tăng thêm sự lo lắng của thị trường và thôi thúc nhiều nhà đầu tư bán tháo cổ phiếu Oracle trước rồi mới đặt câu hỏi sau.
Tất cả áp lực này chắc chắn sẽ lan sang Nvidia. Nếu Oracle không thể thanh toán, các đơn hàng tồn đọng của Nvidia sẽ trở thành những lời hứa suông. Và bản thân OpenAI cũng đang có tình hình tài chính bấp bênh: doanh thu hàng năm vào khoảng 20 tỷ USD, nhưng hóa đơn tính toán hàng năm lại lên tới gần 60 tỷ USD. Khoảng trống này chỉ có thể được lấp đầy bằng việc huy động vốn liên tục.
Dưới những áp lực này, Nvidia vẫn còn một vài quân bài để tung ra.
Phản ứng của Nvidia rất rõ ràng: tăng tốc lộ trình sản phẩm. Khi Blackwell ra mắt vào năm 2025, các vấn đề về tăng sản lượng đã gây áp lực lên cổ phiếu, nhưng Nvidia đã rút ra bài học từ giai đoạn đó. Nền tảng Vera Rubin thế hệ tiếp theo dự kiến sẽ được sản xuất hàng loạt vào nửa cuối năm 2026, và ban lãnh đạo nhấn mạnh rằng quá trình tăng sản lượng sẽ diễn ra suôn sẻ hơn nhiều.
Những cải thiện về hiệu suất là vô cùng ấn tượng. So với Blackwell, Rubin mang lại hiệu suất đào tạo gấp khoảng 3,5 lần và thông lượng suy luận gấp tới 5 lần, đồng thời cắt giảm chi phí cho mỗi token ở phía suy luận lên tới 90%.Nhưng cải tiến quan trọng nhất — và thường bị bỏ qua — nằm ở khả năng triển khai: trong khi việc lắp ráp và bảo trì một tủ rack hệ thống dựa trên Blackwell có thể mất hơn một tiếng rưỡi, thì thiết kế khay mô-đun và cấu hình không dây cáp của Rubin có thể rút ngắn quy trình đó xuống còn khoảng 5 phút, giúp tăng hiệu quả lắp ráp và bảo trì lên tới 18 lần.
Về mặt thực tiễn, điều này có nghĩa là khách hàng có thể triển khai năng lực tính toán nhanh hơn, rút ngắn chu kỳ xây dựng trung tâm dữ liệu và giảm đáng kể tổng chi phí. Sự thay đổi trong khả năng sản xuất và vận hành này là một lợi thế cạnh tranh thực sự. Nó không chỉ là về hiệu suất thô, mà còn là về tính khả thi về mặt kinh tế.
Các kiểm tra kênh phân phối cho thấy sự hào hứng của khách hàng đối với Rubin mạnh mẽ hơn nhiều so với các nền tảng cạnh tranh, và quá trình chuyển đổi từ Blackwell sang Rubin có thể diễn ra nhanh hơn dự kiến của thị trường. Ngay cả khi AMD và Broadcom tăng trưởng nhanh chóng, doanh thu hàng quý tăng thêm của Nvidia vẫn cao hơn đáng kể so với tổng mức tăng thêm của hầu hết các đối thủ cạnh tranh.
Tất nhiên, chỉ riêng vị thế dẫn đầu về công nghệ không thể vô hiệu hóa hoàn toàn các lợi thế cấu trúc của chip ASIC. Đối với các gã khổng lồ có khả năng thiết kế nội bộ như Google và Anthropic, ASIC có thể mang lại hiệu quả chi phí tốt hơn cho các khối lượng công việc cụ thể và giúp kiểm soát chuỗi cung ứng chặt chẽ hơn. Nhưng ít nhất Rubin cũng giúp Nvidia bảo vệ vị thế của mình trong phân khúc GPU và giúp họ có thêm thời gian cho các bước đi chiến lược khác.
Vào ngày 13 tháng 1, chính quyền ông Trump đã phê duyệt việc xuất khẩu chip H200 sang Trung Quốc. Nhìn bề ngoài, đây có vẻ là một tin cực kỳ khả quan, nhưng những điều khoản chi tiết mới là điều quan trọng.
Các điều kiện bao gồm mức thuế 25%, giới hạn 50% tổng khối lượng và bắt buộc phải có sự xác nhận từ phòng thí nghiệm của bên thứ ba tại Hoa Kỳ cho tất cả các con chip. Tổng hợp lại, những rào cản này đồng nghĩa với việc doanh thu thực tế có thể nhỏ hơn nhiều so với con số đơn hàng được công bố trên các tiêu đề báo chí.
Các báo cáo chỉ ra rằng các gã khổng lồ công nghệ Trung Quốc đang chuẩn bị đặt hàng với tổng trị giá lên tới 14 tỷ USD. Nhưng một khi tính đến thuế quan, giới hạn khối lượng và các quy trình phê duyệt, phần thực sự chuyển hóa thành doanh thu có thể chưa đến một nửa con số đó. Sự ổn định của chính sách cũng là một dấu hỏi lớn. Các công ty chip AI nội địa tại Trung Quốc đang bắt kịp rất nhanh, và về lâu dài, thị phần của Nvidia tại Trung Quốc có khả năng sẽ tiếp tục bị xói mòn.
Mặc dù vậy, đây vẫn là một dòng doanh thu hữu hình. Trên một nền tảng quy mô lớn như của Nvidia, việc có thêm 14 tỷ USD đơn hàng tiềm năng — ngay cả khi chỉ có 6–7 tỷ USD được ghi nhận là doanh thu — cũng có thể mang lại cú hích đáng kể cho kết quả kinh doanh năm 2026.
Nvidia không chỉ là nhà cung cấp chip; họ còn là nhà đầu tư vào OpenAI, CoreWeave, Anthropic và thậm chí là cả Intel. Điều đó dễ hiểu vì sao thị trường lại đặt câu hỏi: liệu đây có phải là hình thức tài trợ xoay vòng?
Hãy lấy ví dụ về CoreWeave, cái tên gây tranh cãi nhất trong cuộc thảo luận này. Khoản đầu tư của Nvidia vào đó là vốn cổ phần thuần túy, không phải nợ. Họ không cung cấp khoản tài trợ từ nhà cung cấp hay tín dụng giá rẻ; mà là mua cổ phần theo các điều khoản thị trường. Nếu doanh nghiệp thành công, tất cả cùng có lợi; nếu thất bại, Nvidia cũng chịu thiệt hại như bất kỳ cổ đông nào khác. Điều này khác biệt căn bản so với hình thức tài trợ của nhà cung cấp vốn làm thổi phồng doanh số thông qua các điều khoản thanh toán kéo dài hoặc các khoản vay được trợ cấp.
Lập luận của ban quản lý là quy mô đầu tư vào hạ tầng AI hiện đã vượt quá khả năng tài chính của bất kỳ công ty riêng lẻ nào. Nếu không có vốn cổ phần từ các đối tác như Nvidia, nhiều dự án có thể sẽ không bao giờ được triển khai. Đây là cái mà họ gọi là đầu tư chiến lược. Tầm nhìn dài hạn của Nvidia kỳ vọng doanh thu của chính họ sẽ đạt một nghìn tỷ USD mỗi năm vào cuối thế kỷ này, với hệ sinh thái rộng lớn hơn tạo ra giá trị lớn hơn nhiều, và Nvidia muốn có một phần đáng kể trong đó với tư cách là người sở hữu chứ không chỉ là nhà cung cấp.
Dù vậy, các nhà đầu tư cảm thấy khó có thể hoàn toàn tin tưởng vào tính xác thực của mức tăng trưởng được báo cáo khi họ thấy Nvidia rót vốn vào các khách hàng, những người sau đó lại dùng chính số tiền đó để mua chip của Nvidia. Những lo ngại này đã trở thành một áp lực lớn đè nặng lên định giá của công ty. Tuy nhiên, dưới góc độ kinh tế thuần túy, trong kỷ nguyên mà vốn cho AI cực kỳ khan hiếm, kiểu đầu tư vào hệ sinh thái như thế này thực sự có thể là cần thiết.
Cũng có một góc độ khác: các khoản đặt cược của Nvidia vào OpenAI và Anthropic không chỉ là để bán được nhiều GPU hơn. Cả hai công ty này đều đang chuẩn bị cho các đợt IPO vào năm 2026. Một khi họ niêm yết và giá trị vốn hóa được xác định rõ ràng, Nvidia, với tư cách là cổ đông sớm, sẽ thu được lợi nhuận đáng kể từ chính phần vốn cổ phần đó.
Dựa trên các chỉ số định giá truyền thống, Nvidia thực tế trông có vẻ không đắt. Cổ phiếu này đang giao dịch ở mức gấp khoảng 20 lần lợi nhuận dự phóng năm 2027, gần với mức hệ số 22 lần của S&P 500—nhưng Nvidia vẫn được kỳ vọng sẽ tăng trưởng EPS với tỷ lệ hàng năm kép khoảng 35%, cùng với mức tăng trưởng dòng tiền tự do trên 40%. Để so sánh, Broadcom—một bên hưởng lợi lớn khác từ chi tiêu cho AI—đang có hệ số định giá cao hơn ở cả lợi nhuận hiện tại và lợi nhuận dự phóng.
Các mức giá mục tiêu của khối phân tích tập trung trong khoảng 250–275 USD, tương ứng với khoảng 26–28 lần lợi nhuận năm 2027. Với thị giá cổ phiếu quanh mức 180 USD, điều đó cho thấy tiềm năng tăng giá khoảng 30–40% trên lý thuyết. Tuy nhiên, vấn đề là định giá rẻ không mặc nhiên đồng nghĩa với việc có thêm nhu cầu mua vào. Dòng tiền mới đang ngày càng chảy vào các nhà sản xuất bộ nhớ và các nhà máy gia công chip, những nơi mang lại đòn bẩy hoạt động cao hơn.
Logic rất đơn giản. Trong giai đoạn 2023–2024, nếu muốn tiếp cận lĩnh vực AI, động thái đơn giản nhất là mua cổ phiếu Nvidia. Đến năm 2026, đầu tư vào hạ tầng AI đã tăng lên sát mức mà năng lực sản xuất hiện tại có thể đáp ứng. Ngay cả khi nhu cầu GPU tiếp tục tăng nhanh, sự bùng nổ lợi nhuận tại các "vùng biên" của chuỗi giá trị—như bộ nhớ HBM, các tiến trình tiên tiến của TSMC, thiết bị đóng gói và kiểm thử—có thể cao hơn, bởi vì quy mô các mảng kinh doanh đó nhỏ hơn và nguồn cung thắt chặt hơn.
Đây không phải là về việc các yếu tố cơ bản của Nvidia đang sụp đổ. Đó là về sự thay đổi trong tính toán rủi ro - lợi nhuận. Khi các cổ phiếu khác gắn liền với cùng một câu chuyện AI mang lại khả năng tăng giá lớn hơn, dòng vốn tự nhiên sẽ luân chuyển sang các cổ phiếu đó.
Một lý do khác khiến các nhà đầu tư ngần ngại quay lại với Nvidia còn sâu xa hơn: tốc độ tăng trưởng chi tiêu vốn cho AI đang bắt đầu có xu hướng giảm.
Về bề mặt, Phố Wall vẫn tỏ ra lạc quan về năm 2026. Các dự báo lạc quan cho thấy CapEx liên quan đến AI của các hyperscaler có thể tăng gần 40% so với cùng kỳ năm trước, đẩy tổng chi tiêu lên trên 600 tỷ USD. Điều đó nghe có vẻ mạnh mẽ. Nhưng sự lo ngại nằm ở tốc độ tăng trưởng: tốc độ này dự kiến sẽ giảm từ khoảng 70% vào năm 2025 xuống còn khoảng hơn 30% vào năm 2026.
Nếu xu hướng đó tiếp tục, đến cuối năm 2026, tăng trưởng CapEx cho AI có thể trông tương tự như chi tiêu cho CNTT truyền thống. Đối với Nvidia, điều đó có thể đánh dấu sự kết thúc của giai đoạn "tuần trăng mật" tăng trưởng cực nhanh.
Tệ hơn nữa, sự phân hóa nội bộ giữa các nền tảng lớn đang ngày càng sâu sắc. Meta vẫn đang đầu tư với tốc độ trên 40%, trong khi Amazon và Google chỉ đưa ra định hướng tăng trưởng ở mức mười mấy phần trăm. Sự chia tách đó đã báo hiệu những quan điểm khác nhau về hiệu quả lợi nhuận của việc đầu tư vào AI. Khoảng một nửa doanh thu trung tâm dữ liệu của Nvidia đến trực tiếp từ các hyperscaler này, vì vậy bất kỳ sự thắt chặt hay tăng tốc nào trong kế hoạch CapEx của họ cũng sẽ tác động mạnh đến cách thị trường đánh giá lượng đơn hàng của Nvidia.
Trong bối cảnh này, các nhà đầu tư đang lựa chọn cách chờ đợi. Không phải họ nghi ngờ khả năng tạo ra lợi nhuận của Nvidia; họ muốn sự rõ ràng về việc liệu CapEx cho AI đang bước vào một "trạng thái bình thường mới" điều độ, bền vững hơn hay đang hướng tới một sự chững lại đột ngột.
Đó là lý do tại sao thị trường hiện đang dồn sự chú ý vào một "thời điểm quyết định" duy nhất: hội nghị GTC của Nvidia vào giữa tháng 3 năm 2026.
Tại sự kiện đó, Nvidia được kỳ vọng sẽ đưa ra các chi tiết cụ thể hơn về thông số kỹ thuật của Rubin, lịch trình tăng sản lượng và các khách hàng nòng cốt đầu tiên. Các nhà đầu tư cũng hy vọng vào một liều thuốc trấn an khác từ Jensen Huang: một cái nhìn rõ ràng hơn về tổng cơ hội hạ tầng AI và tốc độ phát triển của nó, khả năng chi tiêu vốn của các khách hàng lớn nhất của Nvidia, và việc Nvidia dự định tài trợ cho chính tệp khách hàng của mình ở mức độ nào.
Cho đến lúc đó, cổ phiếu có khả năng sẽ giao dịch đi ngang trong biên độ khoảng 180–210 USD. Để bứt phá khỏi biên độ đó, thị trường có lẽ cần thấy ba điều:
Không có yêu cầu nào trong số này là nhỏ. Chúng ánh xạ trực tiếp vào ba khía cạnh cốt lõi: tính bền vững của nhu cầu, sức mạnh của hào phòng thủ công nghệ và chất lượng lợi nhuận.
Vậy, mọi người thực sự nên lo lắng về điều gì?
Đây là mâu thuẫn cốt lõi xoay quanh Nvidia hiện nay. Nhìn lại ba năm qua, công ty rõ ràng xứng đáng có một mức định giá cao hơn. Nhìn về khả năng CapEx cho AI chậm lại sau năm 2026, thị trường có lý do để ngần ngại trong việc đưa ra các mức định giá cao hơn nữa.
Kết quả là một công ty vẫn giữ vai trò trung tâm đối với hạ tầng AI ở cấp độ nền tảng, nhưng trên thị trường đại chúng, nó đã dần chuyển dịch từ vị thế "cổ phiếu cốt lõi phải sở hữu" sang chỉ là một trong số vài cái tên mà giờ đây các nhà đầu tư cảm thấy họ có thể lựa chọn. Đối với dòng vốn ngắn hạn, sự thay đổi vị thế đó là rất khó chịu. Tuy nhiên, đối với các nhà đầu tư dài hạn, nếu kéo dài tầm nhìn từ ba đến năm năm, mức giá hiện tại—dù không phải là mức giá rẻ mạt—đã trông khá hấp dẫn.