TradingKey - Nhà sản xuất chip AI Cerebras được cho là đang lên kế hoạch niêm yết trên Nasdaq vào ngày 14/5 với mã chứng khoán "CBRS". Đợt IPO này dự kiến sẽ trở thành thương vụ niêm yết mới lớn nhất tại Mỹ trong năm nay, đưa đối thủ đáng gờm này của Nvidia ( NVDA) trong cuộc đua năng lực tính toán AI chính thức bước vào tâm điểm của thị trường vốn.
Theo các hồ sơ cáo bạch được nộp trong tuần này, Cerebras dự kiến phát hành 28 triệu cổ phiếu trong đợt IPO với khung giá từ 115 USD đến 125 USD mỗi cổ phiếu. Nếu được định giá ở mức trần, đợt chào bán sẽ huy động được 3,5 tỷ USD, định giá công ty ở mức 26,6 tỷ USD. Tính cả quyền chọn cổ phiếu và các vốn chủ sở hữu khác, giá trị định giá pha loãng hoàn toàn sẽ rơi vào khoảng 33 tỷ USD.
Đáng chú ý, các nguồn tin thân cận tiết lộ rằng do nhu cầu mạnh mẽ từ các nhà đầu tư, Cerebras có thể nâng khung giá lên mức 125–135 USD mỗi cổ phiếu sớm nhất là vào ngày 12/5. Đợt IPO hiện đang được đăng ký mua vượt mức hơn 20 lần.
Đây là nỗ lực thực hiện IPO lần thứ hai của Cerebras. Tháng 10 năm ngoái, công ty đã rút đơn đăng ký niêm yết do chính phủ Mỹ xem xét một khoản đầu tư từ khách hàng G42 có trụ sở tại Abu Dhabi. Việc khởi động lại đợt niêm yết diễn ra cùng lúc với sự bùng nổ đầu tư vào hạ tầng AI và sự phục hồi của thị trường IPO tại Mỹ, giúp thu hút sự chú ý đáng kể từ thị trường.
Được thành lập vào năm 2015 tại California, công ty chip này đã nhắm tới một lộ trình kỹ thuật hoàn toàn mới vượt xa GPU ngay từ khi mới thành lập—sử dụng toàn bộ tấm wafer silicon để chế tạo trực tiếp các con chip khổng lồ, thay vì phương pháp truyền thống là cắt tấm wafer thành nhiều đế chip rồi ghép chúng lại với nhau. Kiến trúc quy mô tấm wafer này chính là điều mang lại sự tự tin để công ty thách thức Nvidia.
Nhiều nhà sáng lập cốt lõi của công ty trước đây từng giữ các vị trí kỹ thuật chủ chốt tại các nhà sản xuất chip hàng đầu như AMD, giúp họ có sự hiểu biết sâu sắc về các hạn chế kỹ thuật của GPU và những điểm nghẽn của ngành. Trong một môi trường thị trường nơi GPU vẫn là giải pháp chủ đạo cho việc huấn luyện và suy luận AI, Cerebras đã chọn một con đường khác, giải quyết các nút thắt cốt lõi của kiến trúc GPU truyền thống ở cấp độ vật lý thông qua các con chip Wafer-Scale Engine (WSE).
Lấy con chip WSE-3 mới nhất làm ví dụ, nó tích hợp 4 nghìn tỷ bóng bán dẫn và 900.000 nhân tính toán AI chuyên dụng. Với diện tích chip là 46.225 milimét vuông, nó lớn gấp 56 lần so với chip B200 của Nvidia; bộ nhớ SRAM trên chip gấp 250 lần so với B200 và băng thông bộ nhớ cao hơn 2.625 lần.
Thiết kế này cho phép toàn bộ các mô hình AI được lưu trữ hoàn toàn trên một con chip duy nhất, giúp loại bỏ về cơ bản độ trễ gây ra bởi việc truyền dữ liệu thường xuyên giữa nhiều con chip trong một cụm GPU. Điều này mang lại lợi thế đáng kể khi xử lý các yêu cầu suy luận mô hình lớn và nhu cầu tính toán quy mô cực lớn.
Dữ liệu thử nghiệm từ bên thứ ba cho thấy trong các kịch bản suy luận mô hình Llama 4 Maverick 400B, hệ thống Cerebras CS-3 đạt tốc độ phản hồi cho một người dùng là 2.522 token mỗi giây, gấp 2,4 lần so với B200 của Nvidia. Trong kịch bản mô hình nhỏ Llama 3.1 8B, tốc độ của nó gấp 20 lần so với H100 của Nvidia, trong khi chi phí cho mỗi token có thể giảm tới 80%.
Ngoài những đột phá về hiệu suất phần cứng, Cerebras đã xây dựng một giải pháp toàn diện từ phần cứng chuyên dụng đến ngăn xếp phần mềm, ra mắt các hệ thống siêu máy tính như CS-2 và CS-3. Những hệ thống này hỗ trợ cả việc triển khai tại chỗ cho khách hàng và các dịch vụ đám mây theo mô hình trả tiền theo mức sử dụng.
Mô hình dịch vụ linh hoạt này đã thu hút nhiều khách hàng lớn. Vào tháng 1/2026, công ty đã ký thỏa thuận hợp tác ba năm trị giá hơn 20 tỷ USD với OpenAI để triển khai công suất tính toán 750 megawatt. Vào tháng 3, công ty đã hợp tác với AWS để ra mắt hệ thống CS-3 trên Amazon Web Services, trở thành bộ tăng tốc AI không phải GPU đầu tiên gia nhập chuỗi cung ứng của một nhà cung cấp dịch vụ đám mây lớn. Ngoài ra, GlaxoSmithKline (GSK), Bộ Năng lượng Mỹ và một số phòng thí nghiệm quốc gia cũng là khách hàng, mang lại sự xác thực đa chiều về năng lực kỹ thuật của công ty.
Nhìn vào xu hướng thị trường, ngành công nghiệp AI đang chuyển dịch từ trọng tâm vào huấn luyện sang trọng tâm vào suy luận. Thị trường suy luận AI toàn cầu đã đạt 106,2 tỷ USD vào năm 2025 và dự kiến sẽ tăng lên 255 tỷ USD vào năm 2030. Những lợi thế kỹ thuật của Cerebras hoàn toàn phù hợp với nhu cầu thị trường này.
Tận dụng hiệu suất vượt trội trong các kịch bản suy luận độ trễ thấp, công ty đã xếp thứ nhất về các lượt gọi suy luận trên nền tảng nhà phát triển HuggingFace. Năm 2025, doanh thu từ các dịch vụ đám mây suy luận chiếm 30% tổng doanh thu, giúp công ty thành công tạo dựng được vị thế riêng trong thị trường vốn do Nvidia thống trị.