TradingKey - Theo báo cáo của cơ quan truyền thông Hàn Quốc The Korea Economic Daily, Samsung gần đây đã công bố những thông tin mới nhất về hệ thống bộ nhớ CXL "Pangea v2" của mình.
CXL, hay Compute Express Link, được coi là một "ứng dụng sát thủ" tiềm năng khác của Samsung sau HBM. Trong bối cảnh nhu cầu về sức mạnh tính toán AI và chip bộ nhớ tăng trưởng bền vững, CXL đang chuyển dịch từ một công nghệ ngách ra tâm điểm chú ý và có thể trở thành xu hướng lớn tiếp theo trong lĩnh vực bộ nhớ.
HBM, hay High Bandwidth Memory, hiện đang trong tình trạng khan hiếm trên thị trường toàn cầu, đề cập đến bộ nhớ băng thông cao. Băng thông là tổng lượng dữ liệu có thể được truyền tải trong một đơn vị thời gian. Micron (MU), SK Hynix và Samsung hiện là những nhà cung cấp sản xuất hàng loạt HBM hàng đầu trên toàn cầu. Các dòng chip của Nvidia (NVDA) H100/B200 phụ thuộc rất lớn vào công nghệ này.
Tính đến hiện tại, tiêu chuẩn kỹ thuật mới nhất được đưa vào sản xuất hàng loạt là HBM4, thế hệ thứ sáu của bộ nhớ băng thông cao. HBM4 đã trở thành tiêu chuẩn cho nền tảng Vera Rubin của Nvidia và MI450 của AMD. HBM4E tiên tiến và hiệu quả hơn vẫn chưa được sản xuất hàng loạt nhưng đã xuất hiện trong lộ trình của các nhà sản xuất lớn.
HBM là một kiến trúc phần cứng giúp tăng băng thông bằng cách xếp chồng các chip DRAM theo cấu trúc 3D và đóng gói chúng trực tiếp cạnh bộ vi xử lý. Ưu điểm kỹ thuật của nó bao gồm khoảng cách gần giữa bộ nhớ và bộ vi xử lý, giúp đường truyền dữ liệu cực ngắn; công nghệ cốt lõi TSV (Through-Silicon Via) được sử dụng trong xếp chồng 3D tương đương với việc tạo ra hàng nghìn đường dẫn tín hiệu điện dọc trong các chip DRAM, cho phép tín hiệu điện xuyên qua tất cả các lớp theo chiều thẳng đứng.
Khác với HBM là một kiến trúc phần cứng, CXL là một giao thức kết nối. CXL được sử dụng để kết nối CPU và các thiết bị ngoại vi, nhằm giải quyết các nút thắt cổ chai trong giao tiếp đồng thời hướng tới tính linh hoạt và khả năng mở rộng. Tuy nhiên, điểm tương đồng là cả hai công nghệ đều được thiết kế để giải quyết vấn đề "bức tường bộ nhớ" (memory wall)—vấn đề mà các chip không thể truy cập dữ liệu đủ nhanh, buộc người dùng phải chịu đựng thời gian phản hồi lâu hơn.
So với HBM, lợi thế của CXL nằm ở dung lượng bộ nhớ lớn. Mặc dù tốc độ truyền dữ liệu thấp hơn HBM, CXL có thể vượt qua các hạn chế về khe cắm máy chủ để cung cấp dung lượng bộ nhớ ở mức terabyte và cho phép chia sẻ bộ nhớ giữa nhiều bộ vi xử lý, được gọi là "memory pooling" (tập hợp bộ nhớ). So với HBM, CXL có chi phí thấp hơn và dễ dàng mở rộng hơn, trở thành giải pháp bộ nhớ quy mô lớn tiết kiệm chi phí hơn.
Trong tương lai, HBM và CXL sẽ cùng phục vụ các máy chủ AI: HBM băng thông cao sẽ được sử dụng cho các tính toán mô hình cốt lõi, trong khi CXL sẽ cung cấp bộ nhớ dung lượng cao, đóng vai trò như một bể chứa bộ nhớ để hỗ trợ truy cập dữ liệu khổng lồ.
Lý do các trung tâm dữ liệu trong tương lai cần CXL nằm chính ở các đặc tính của nó: cho phép mở rộng bộ nhớ ngoài và chia sẻ bộ nhớ thông qua gộp bộ nhớ (memory pooling), giúp giảm chi phí đồng thời giải quyết các nút thắt về tốc độ truyền dữ liệu.
Các khe cắm bộ nhớ máy chủ truyền thống được kết nối trực tiếp với CPU; khi bộ nhớ sắp hết, lựa chọn duy nhất là mua thêm một máy chủ khác. Tuy nhiên, với công nghệ CXL, bộ nhớ có thể được kết nối bên ngoài thông qua các giao diện PCIe như ổ cứng, phá vỡ các giới hạn vật lý của các khe cắm trên bo mạch chủ. Về mặt lý thuyết, chỉ cần máy chủ có đủ khe cắm PCIe, dung lượng bộ nhớ có thể được tăng lên vô hạn.
Mặt khác, các máy chủ khác nhau trong các trung tâm dữ liệu truyền thống không thể chia sẻ bộ nhớ do sự cô lập về vật lý. Tuy nhiên, CXL 2.0 giới thiệu tính năng gộp bộ nhớ (memory pooling), nơi tất cả bộ nhớ được đặt trong một bể tài nguyên duy nhất; sau đó bộ chuyển mạch CXL có thể phân bổ bộ nhớ theo thời gian thực cho bất kỳ máy chủ nào cần thêm, giúp nâng cao hiệu quả sử dụng tài nguyên. Trong bối cảnh giá bộ nhớ liên tục tăng, động thái này chắc chắn giúp giảm chi phí một cách đáng kể.
Về tốc độ truyền dữ liệu, việc giao tiếp giữa các bộ tăng tốc trong các trung tâm dữ liệu truyền thống sử dụng giao thức PCIe tiêu chuẩn, yêu cầu dữ liệu phải được đóng gói thành các "gói" và xử lý qua ngăn xếp phần mềm, dẫn đến tốc độ chậm và độ trễ cao. Nhưng với CXL, tính nhất quán bộ nhớ dựa trên giao thức CXL cho phép các bộ tăng tốc thực hiện truy cập đọc và ghi trực tiếp ở cấp độ phần cứng vào các tài nguyên dùng chung, giúp rút ngắn đáng kể đường truyền dữ liệu.
Mặc dù việc ứng dụng CXL sẽ mang lại bước nhảy vọt lớn trong công nghệ trung tâm dữ liệu, việc thương mại hóa quy mô lớn vẫn đối mặt với những rào cản quan trọng, vì công nghệ này yêu cầu CPU, GPU, bộ nhớ và thiết bị mạng trong trung tâm dữ liệu đều phải hỗ trợ cùng một tiêu chuẩn. Sự phức tạp trong việc điều phối hệ sinh thái liên ngành cho CXL vẫn là trở ngại lớn nhất trên con đường được áp dụng rộng rãi.
Theo tờ The Korea Economic Daily, hệ thống bộ nhớ CXL "Pangea v2" của Samsung đã chứng minh hiệu suất vượt trội, với khả năng truyền dữ liệu cao gấp 10,2 lần so với các giải pháp RDMA truyền thống và giảm tới 96% tình trạng nghẽn cổ chai, đánh dấu một bước đột phá công nghệ quan trọng trong lĩnh vực CXL.
Hệ thống này dựa trên Intel (INTC) , Nvidia và tiêu chuẩn CXL 2,0 của các công ty khác cùng được ra mắt vào năm 2020, yêu cầu tích hợp 22 mô-đun CXL DRAM (CMM-D, hay CXL Memory Module-DRAM, nghĩa là các mô-đun bộ nhớ DRAM dựa trên CXL) vào một bể nhớ chung duy nhất, hỗ trợ truy cập đa máy chủ với dung lượng bộ nhớ tối đa 5,5TB.
"Pangea v2" của Samsung đại diện cho đỉnh cao của các hệ thống trong kỷ nguyên CXL 2,0 hiện tại; tuy nhiên, với tốc độ cải tiến công nghệ nhanh chóng trong lĩnh vực CXL, ý nghĩa của v2 nằm ở việc thiết lập một chuẩn mực cho công nghệ CXL 2,0 hơn là đóng vai trò dẫn đầu vĩnh viễn.
Tiêu chuẩn CXL hiện đã đạt đến phiên bản 3,2 và Samsung đã công bố kế hoạch phát hành "Pangea v3" dựa trên các thông số kỹ thuật mới nhất trong năm 2026. v3 dự kiến sẽ giới thiệu hỗ trợ truyền thông quang học mạnh mẽ hơn và băng thông cổng đơn cao hơn, với hiệu suất dự kiến sẽ vượt qua v2.
Bên cạnh Samsung, các đối thủ cạnh tranh là SK Hynix và Micron đều đã tung ra các sản phẩm hoàn thiện trong lĩnh vực CXL. Tháng 3 vừa qua, SK Hynix đã trưng bày mô-đun bộ nhớ CMM-DDR5 CXL tại Hội nghị Thượng đỉnh Flash Toàn cầu CFMS 2026, sau khi đã giới thiệu HMSDK, một bộ phần mềm được phát triển cho các hoạt động của CXL, từ trước đó. Micron cũng đã ra mắt mô-đun mở rộng bộ nhớ CZ120 vào năm 2023.
Hiện tại, các công ty công nghệ đã tung ra các sản phẩm hoàn thiện vẫn còn chiếm số ít. Ngoài những công ty đã đề cập, một vài gã khổng lồ công nghệ đã giới thiệu các sản phẩm hỗ trợ CXL. Ví dụ, bộ vi xử lý Xeon thế hệ thứ 5 và dòng Granite Rapids mới nhất của Intel hỗ trợ hoàn toàn CXL 2.0, với một số tính năng nhất định hỗ trợ CXL 3.0. AMD (AMD) các dòng EPYC Genoa và Turin của hãng đã đi vào sản xuất hàng loạt, cả hai đều hỗ trợ mở rộng bộ nhớ CXL.
Ngoài ra, một số công ty công nghệ đang phát triển các loại chip tương thích với CXL. NVIDIA có kế hoạch hỗ trợ tiêu chuẩn CXL 3.1 trong CPU Vera của mình, dự kiến ra mắt vào cuối năm nay, một động thái được ngành công nghiệp đánh giá là bài kiểm tra thực tế quan trọng nhất đối với CXL cho đến nay.
Theo tờ The Information, Google (GOOG) (GOOGL) đã bắt đầu triển khai CXL trong các trung tâm dữ liệu của mình và đang bắt đầu lắp đặt các bộ điều khiển để quản lý lưu lượng dữ liệu giữa CPU và các kho lưu trữ bộ nhớ ngoài quy mô lớn.
Theo truyền thống, cốt lõi của ngành công nghiệp bộ nhớ là các phiến (die) DRAM; ví dụ, HBM liên quan đến việc xếp chồng 3D các chip DRAM. Cuộc cạnh tranh giữa ba gã khổng lồ bộ nhớ — Samsung, SK Hynix và Micron — trong lĩnh vực này tập trung vào việc ai có thể xếp chồng được nhiều lớp hơn.
Tuy nhiên, CXL đã mở ra một ranh giới hoàn toàn mới, nơi sự cạnh tranh phụ thuộc vào sự hợp lực giữa phần cứng và phần mềm: nó phụ thuộc vào việc CXL của bên nào tích hợp tốt hơn với các bộ vi xử lý từ Intel, AMD và NVIDIA, bộ điều khiển CXL của bên nào có độ trễ thấp hơn và phần mềm quản lý của bên nào thân thiện với người dùng hơn. Điều này đòi hỏi các công ty bộ nhớ không chỉ sở hữu công nghệ chip tiên tiến mà còn phải có năng lực thiết kế chip logic mạnh mẽ hơn. Sự xuất hiện của CXL mang đến cơ hội tái cấu trúc ngành công nghiệp bộ nhớ và giới thiệu các động lực tăng trưởng lợi nhuận mới.
Cụ thể, CXL thu hẹp khoảng cách giữa bộ nhớ (như DRAM) và lưu trữ (như ổ SSD), về cơ bản giúp bộ nhớ lớn hơn và lưu trữ nhanh hơn. Đối với ba gã khổng lồ bộ nhớ, trong khi HBM trước đây được hưởng mức giá chênh lệch cao nhờ nhu cầu từ các trung tâm dữ liệu AI, các sản phẩm SSD của họ cũng sẽ có thể đạt được mức giá chênh lệch tương tự một khi các ổ SSD trang bị CXL chiếm lĩnh thị trường phổ thông.
Hơn nữa, ngành công nghiệp bộ nhớ sẽ trải qua quá trình phân khúc khi CXL trở nên phổ biến: HBM, loại bộ nhớ theo đuổi băng thông cực cao, vẫn nằm ở đỉnh kim tự tháp nhờ công nghệ tiên tiến và tỷ lệ sản phẩm đạt chuẩn thấp; DDR5 truyền thống, cân bằng giữa độ trễ và dung lượng, duy trì thị trường hiện có; và bộ nhớ mở rộng CXL sẽ chuyên về các dung lượng siêu lớn ở cấp độ TB. Sự khác biệt này cho phép các nhà sản xuất bộ nhớ chuyên môn hóa vào các sản phẩm cụ thể, tăng cường sự hợp lực trên toàn bộ chuỗi ngành.
Trước đây, mô hình nghiên cứu và phát triển (R&D) cho bộ nhớ bị chi phối bởi các thông số kỹ thuật của bộ vi xử lý, khiến ngành lưu trữ có tương đối ít ảnh hưởng trong lĩnh vực bán dẫn. Tuy nhiên, khi CXL trở nên phổ biến, các trung tâm dữ liệu trong tương lai có thể chuyển dịch từ kiến trúc lấy CPU làm trung tâm sang kiến trúc lấy việc gộp bộ nhớ (memory pooling) làm trung tâm. Điều này sẽ thúc đẩy đáng kể định giá của các công ty lưu trữ, chuyển dịch logic định giá của ngành từ các cổ phiếu chu kỳ sang các cổ phiếu tăng trưởng.