SambaNova giới thiệu chip nhanh nhất cho AI Tác Nhân, hợp tác với Intel và huy động hơn 350 triệu đô la

Đây là một thông cáo báo chí trả phí. Liên hệ trực tiếp với nhà phân phối thông cáo báo chí để biết bất kỳ thắc mắc nào.

SambaNova ra mắt chip nhanh nhất cho AI tác tử (agentic AI), hợp tác với Intel và huy động hơn 350 triệu USD+

Business Wire

Th 6, 27 Tháng Hai, 2026 lúc 3:24 SA GMT+9 8 phút đọc

Trong bài viết này:

INTC

-3.04%

9434.T

+0.05%

Chip SambaNova SN50 có tốc độ tối đa nhanh hơn 5X so với các chip cạnh tranh. Chạy AI tác tử với chi phí thấp hơn 3X so với GPU — cắt giảm chi phí suy luận và tối đa hóa biên lợi nhuận.

_Chip SN50 mới có tốc độ tối đa nhanh hơn 5X so với các chip cạnh tranh [1]_
_Chạy AI tác tử với chi phí thấp hơn 3X so với GPU — cắt giảm chi phí suy luận và tối đa hóa biên lợi nhuận [2]_
_SoftBank Corp. sẽ là khách hàng đầu tiên triển khai SN50 trong các trung tâm dữ liệu AI thế hệ tiếp theo tại Nhật_
_SambaNova và Intel lên kế hoạch hợp tác chiến lược nhiều năm để cung cấp suy luận AI quy mô đám mây nhằm mở khóa cơ hội thị trường trị giá hàng tỷ USD_
_350 triệu USD cho tài trợ Chiến lược Series E; nhà đầu tư mới bao gồm Vista Equity Partners, Cambium Capital, First Data, Intel Capital,__ Battery Ventures, và các tài khoản do T. Rowe Price Associates, Inc. tư vấn,_

DUBAI, Các Tiểu vương quốc Ả Rập Thống nhất, ngày 26 tháng 2 năm 2026–(BUSINESS WIRE)–SambaNova hôm nay đã giới thiệu chip AI SN50 của họ, có tốc độ tối đa nhanh hơn 5X so với các chip cạnh tranh. Công ty cũng công bố kế hoạch hợp tác với Intel để cung cấp các giải pháp suy luận AI hiệu năng cao, tiết kiệm chi phí, cùng với khoản đầu tư hơn 350 triệu USD từ các nhà đầu tư mới và hiện hữu.

Được định vị là chip hiệu quả nhất cho AI tác tử, chip SN50 cung cấp cho doanh nghiệp tổng chi phí sở hữu thấp hơn 3X — nền tảng mạnh mẽ để mở rộng suy luận nhanh và đưa các tác tử AI tự chủ vào sản xuất toàn diện. SN50 sẽ được giao hàng cho khách hàng vào cuối năm nay.

Để nhanh chóng mở rộng quy mô và phân phối SN50, SambaNova đang hợp tác với Intel, đồng thời đã thu được khoản tài trợ Series E chiến lược trị giá 350 triệu USD để mở rộng năng lực sản xuất và hạ tầng đám mây.

“AI giờ đây không còn là cuộc thi để xây dựng mô hình lớn nhất,” ông Rodrigo Liang, đồng sáng lập và Giám đốc điều hành (CEO) của SambaNova, cho biết. “Với SN50 và sự hợp tác sâu rộng của chúng tôi với Intel, cuộc đua thực sự là ai có thể thắp sáng toàn bộ trung tâm dữ liệu bằng các tác tử AI trả lời ngay lập tức, không bị đứng nghẽn, và làm điều đó với chi phí biến AI từ một thử nghiệm thành động cơ sinh lợi nhuận cao nhất trong đám mây.”

“Khách hàng đang yêu cầu nhiều lựa chọn hơn và những cách hiệu quả hơn để mở rộng AI,” ông Kevork Kechichian, Phó chủ tịch điều hành (EVP), Tổng giám đốc Tập đoàn Trung tâm Dữ liệu (Data Center Group) của Intel, cho biết. “Bằng cách kết hợp vai trò dẫn đầu của Intel trong điện toán, mạng và bộ nhớ với các hệ thống AI full-stack của SambaNova và nền tảng đám mây suy luận, chúng tôi đang mang đến một lựa chọn hấp dẫn cho các tổ chức muốn thay thế GPU để triển khai AI tiên tiến ở quy mô lớn.”

SN50 cung cấp nhiều hơn 5 lần năng lực tính toán (compute) trên mỗi bộ tăng tốc (accelerator) và nhiều hơn 4 lần băng thông mạng so với thế hệ trước. Chip kết nối tối đa 350Mộ tăng tốc thông qua liên kết liên kết (interconnect) nhiều terabyte mỗi giây, giúp rút ngắn thời gian đến token đầu tiên (time‑to‑first‑token) và hỗ trợ các kích thước batch lớn hơn. Kết quả: Doanh nghiệp có thể triển khai các mô hình AI bối cảnh dài hơn, lớn hơn với thông lượng và độ đáp ứng cao hơn — đồng thời giữ cho hiệu năng cao và chi phí, độ trễ nằm trong tầm kiểm soát.

Câu chuyện tiếp tục  

“AI đang chuyển từ câu chuyện phần mềm sang câu chuyện hạ tầng,” ông Landon Downs, đồng sáng lập và đối tác quản lý tại Cambium Capital, cho biết. “SN50 được thiết kế cho các yêu cầu về độ trễ và kinh tế trong thế giới thực, những yếu tố sẽ quyết định ai có thể triển khai AI tác tử ở quy mô thành công.”

Tin tức này bám sát các đơn đặt hàng kỷ lục và doanh thu của SambaNova khi công ty chốt năm 2025, phản ánh nhu cầu đang tăng tốc đối với các hệ thống AI sẵn sàng cho sản xuất trong các lĩnh vực dịch vụ tài chính, viễn thông, năng lượng và các triển khai thuộc khối nhà nước (sovereign) trên toàn thế giới.

Được xây dựng cho triển khai sản xuất tác tử (Agentic Production)

Được xây dựng trên kiến trúc Reconfigurable Data Unit (RDU) của SambaNova, SN50 mang lại:

**Trải nghiệm AI tức thì** — Độ trễ siêu thấp mang lại khả năng phản hồi theo thời gian thực cho các ứng dụng doanh nghiệp thế hệ tiếp theo như trợ lý giọng nói.
**Quy mô và mức độ đồng thời (concurrency) vượt trội** — Cung cấp sức mạnh cho hàng nghìn phiên AI đồng thời với hiệu năng cao ổn định.
**Năng lực mô hình đột phá** — Kiến trúc bộ nhớ ba tầng mở khóa các mô hình với 10T+ tham số và độ dài ngữ cảnh 10M+ cho suy luận sâu hơn và đầu ra phong phú hơn.
**Hiệu quả tối đa ở quy mô** — Tỷ lệ sử dụng phần cứng cao hơn giúp giảm chi phí mỗi token, thúc đẩy hiệu năng và ROI cao hơn.
**Bộ nhớ thông minh hơn, hiệu quả thông minh hơn** — Bộ nhớ đa mô hình thường trú và cơ chế lưu trữ đệm (caching) tác tử tối ưu hóa kiến trúc ba tầng, cắt giảm chi phí hạ tầng cho các triển khai AI quy mô doanh nghiệp.

“SN50 RDU mới của SambaNova thay đổi tokenomics của suy luận AI ở quy mô. Bằng cách vừa cung cấp hiệu năng cao và thông lượng cao với một chip dùng công suất hiện có và được làm mát bằng không khí, SambaNova đang thay đổi cuộc chơi,” ông Peter Rutten, Phó giám đốc phụ trách Nghiên cứu về Hiệu năng cho tính toán chuyên sâu (Research Vice‑President Performance Intensive Computing) tại hãng phân tích IDC, cho biết.

SoftBank triển khai SN50 trong các trung tâm dữ liệu AI của mình tại Nhật

SoftBank Corp. sẽ là khách hàng đầu tiên triển khai SN50 trong các trung tâm dữ liệu AI thế hệ tiếp theo tại Nhật Bản. Việc triển khai sẽ cung cấp các dịch vụ suy luận độ trễ thấp cho khách hàng thuộc khối nhà nước (sovereign) và doanh nghiệp trên khắp khu vực Châu Á - Thái Bình Dương, hỗ trợ cả các mô hình tiên phong mã nguồn mở và mô hình độc quyền với các yêu cầu khắt khe về độ trễ và thông lượng.

“Với SN50, chúng tôi đang xây dựng một lớp hạ tầng suy luận AI cho Nhật Bản có thể phục vụ khách hàng và đối tác của mình với tốc độ, độ bền (resiliency) và mức độ chủ quyền (sovereignty) mà SoftBank kỳ vọng,” ông Hironobu Tamba, Phó giám đốc điều hành và Trưởng bộ phận Chiến lược Nền tảng Dữ liệu (Head of the Data Platform Strategy Division) thuộc Đơn vị Công nghệ (Technology Unit) tại SoftBank Corp., cho biết. “Bằng cách chuẩn hóa trên SN50, chúng tôi có được khả năng cung cấp các dịch vụ AI đẳng cấp thế giới theo điều kiện của riêng mình — với hiệu năng của các cụm GPU hàng đầu, nhưng với kinh tế học tốt hơn nhiều và khả năng kiểm soát cao hơn.”

Việc triển khai SN50 sẽ làm sâu sắc thêm mối quan hệ hiện có của SambaNova với SoftBank Corp., đơn vị đã lưu trữ SambaCloud để cung cấp suy luận siêu nhanh cho các nhà phát triển tại khu vực. Bằng cách đặt các cụm mới nhất dựa trên SN50, SoftBank định vị SambaNova như là trụ cột (backbone) cho suy luận trong các sáng kiến AI thuộc khối nhà nước của họ và các dịch vụ quy mô lớn tác tử trong tương lai.

SambaNova và Intel lên kế hoạch hợp tác đa năm

SambaNova và Intel đã ký kết một thỏa thuận hợp tác chiến lược đa năm dự kiến nhằm cung cấp các giải pháp suy luận AI hiệu năng cao, tiết kiệm chi phí cho các công ty theo hướng AI-native, các nhà cung cấp mô hình, doanh nghiệp và các tổ chức chính phủ trên khắp thế giới. Hợp tác này sẽ mang lại cho khách hàng một lựa chọn mạnh mẽ thay thế cho các giải pháp thiên về GPU, cung cấp hiệu năng được tối ưu cho các mô hình mã nguồn mở hàng đầu với thông lượng dự đoán được và tổng chi phí sở hữu.

Là một phần của hợp tác, Intel dự kiến sẽ thực hiện một khoản đầu tư chiến lược vào SambaNova để tăng tốc việc triển khai một đám mây AI do Intel cung cấp sức mạnh. Hợp tác này dự kiến trải dài trên ba mảng trọng tâm:

**Mở rộng AI Cloud —** Mở rộng đám mây AI tích hợp dọc (vertically integrated) của SambaNova, được xây dựng trên hạ tầng dựa theo Intel Xeon và được tối ưu cho các mô hình ngôn ngữ lớn và đa phương thức. Nền tảng sẽ cung cấp các dịch vụ AI độ trễ thấp, thông lượng cao, được hỗ trợ bởi các kiến trúc tham chiếu, blueprint triển khai và các quan hệ đối tác với nhà tích hợp hệ thống và nhà cung cấp phần mềm.
**Hạ tầng AI tích hợp —** Kết hợp các hệ thống của SambaNova với CPU, các bộ tăng tốc (accelerators) và công nghệ mạng của Intel để cung cấp suy luận có thể mở rộng, sẵn sàng cho sản xuất cho lý giải (reasoning), tạo mã (code generation), ứng dụng đa phương thức (multimodal) và các quy trình làm việc tác tử (agentic workflows).
**Thực thi ra thị trường (Go‑to‑Market) —** Bán chung và marketing chung thông qua các kênh doanh nghiệp, đám mây và đối tác toàn cầu của Intel để tăng tốc độ áp dụng trên toàn hệ sinh thái AI.

Cùng nhau, SambaNova và Intel nhắm tới việc định hình thế hệ tiếp theo của các trung tâm dữ liệu AI dị chủng (heterogeneous) — tích hợp bộ xử lý Intel Xeon, GPU của Intel, mạng và lưu trữ của Intel, cùng các hệ thống của SambaNova — để mở khóa cơ hội thị trường suy luận trị giá nhiều tỷ USD.

Huy động hơn 350 triệu USD+, dẫn đầu bởi Vista và Cambium

Vòng Series E bị đăng ký vượt mức được dẫn dắt bởi Vista Equity Partners và Cambium Capital, với sự tham gia mạnh mẽ từ Intel Capital.

Các nhà đầu tư mới tham gia vòng bao gồm: Assam Ventures, Battery Ventures, First Data, Gulf Development Public Company Limited, Mayfield Capital, Saudi First Data, Seligman Ventures, và các tài khoản do T. Rowe Price Associates, Inc. tư vấn. Các nhà đầu tư hiện hữu tham gia bao gồm: A&E, 8Square, Atlantic Bridge, BlackRock, GV, Nepenthe, Nuri Capital và Redline Capital.

Ông Sharaf Al Hariri, Chủ tịch của First Data, cho biết SambaNova tạo thành một phần cốt lõi trong chiến lược đầu tư của First Data nhằm mang các công nghệ AI tiên tiến tới Vương quốc Ả Rập Saudi và khu vực Trung Đông rộng lớn hơn. Ông nhấn mạnh rằng First Data đang đầu tư vào các nền tảng của SambaNova để tạo ra năng lực AI hiệu năng cao, độ trễ thấp và sẵn sàng cho khối nhà nước (sovereign), đồng thời được hưởng lợi từ các yêu cầu công suất thấp và khả năng vận hành hiệu quả trong các môi trường trung tâm dữ liệu làm mát bằng không khí hiện có. Trong chiến lược này, SambaNova hỗ trợ suy luận tiên tiến và các dịch vụ AI có thể mở rộng, củng cố khả năng của First Data trong việc cung cấp hạ tầng và giải pháp AI đẳng cấp thế giới. Ông cũng cho biết khoản đầu tư này phản ánh cam kết rộng hơn, dài hạn hơn của First Data trong việc đa dạng hóa danh mục công nghệ, xây dựng năng lực đổi mới bền vững và định vị công ty để thích nghi với các xu hướng công nghệ toàn cầu đang thay đổi, đồng thời mang lại giá trị bền vững cho khu vực.

Khi các tác vụ (workloads) tác tử mở rộng, các doanh nghiệp đang phát hiện rằng hạ tầng được tối ưu cho huấn luyện gặp khó khăn trong việc đáp ứng các yêu cầu về độ trễ sản xuất và chi phí: “Chúng tôi tự hào khi đầu tư vào SambaNova vào thời điểm then chốt như vậy trong giai đoạn tăng trưởng của công ty,” ông Monti Saroya, Đối tác tại Vista Capital, cho biết. “SN50 được thiết kế cho các hệ thống AI tác tử điều phối nhiều mô hình và xử lý các yêu cầu trong gần thời gian thực hiệu quả hơn so với các hệ thống truyền thống vốn tập trung vào GPU.”

Số tiền thu được sẽ được dùng để mở rộng sản xuất SN50, mở rộng quy mô SambaCloud và tăng cường tích hợp phần mềm doanh nghiệp.

Về SambaNova

SambaNova là công ty dẫn đầu trong hạ tầng AI thế hệ tiếp theo, cung cấp một nền tảng full stack giúp cung cấp suy luận AI nhanh nhất và hiệu quả nhất cho doanh nghiệp, các NeoCloud, phòng thí nghiệm AI và nhà cung cấp dịch vụ, cùng với các sáng kiến AI thuộc khối nhà nước trên toàn thế giới. Được thành lập vào năm 2017 và có trụ sở tại San Jose, Calif., SambaNova cung cấp các chip, hệ thống và dịch vụ đám mây giúp khách hàng triển khai các mô hình hiện đại với hiệu năng vượt trội, tổng chi phí sở hữu thấp hơn và thời gian đạt giá trị (time to value) nhanh chóng.

Để biết thêm thông tin, hãy truy cập sambanova.ai hoặc theo dõi SambaNova trên X và LinkedIn.

[1] SemiAnalysis InferenceX - Llama 3.3 70B tốc độ tối đa trên Nvidia B200 tại FP8 và đầu vào 1K/đầu ra 1k - 184 token mỗi giây trên mỗi người dùng. Llama 3.3 70B tốc độ tối đa trên SN50 tại FP8 và đầu vào 1K/đầu ra 1k - 895 token mỗi giây trên mỗi người dùng.

[2] SemiAnalysis InferenceX - Llama 3.3 70B thông lượng mỗi chip trên Nvidia B200 tại FP8 và đầu vào 1K/đầu ra 1k - trên nhiều cấu hình, tổng thông lượng mỗi GPU so với tổng thông lượng mỗi RDU thay đổi từ ~1X (ở 33 token mỗi giây trên mỗi người dùng) đến ~25X lợi thế cho RDUs (ở 184 token mỗi giây trên mỗi người dùng). 3X được suy ra như lợi thế thông lượng trung bình của SN50 trên Llama 70B, GPT-OSS 120B và DeepSeek 671B, giả định một ngân sách độ trễ.

Xem phiên bản nguồn trên businesswire.com:

Liên hệ

**Liên hệ Báo chí: **
Emad Abdo
Emad@memediapro.com
+971522038872

Điều khoản và Chính sách Quyền riêng tư

Bảng điều khiển Quyền riêng tư

Thông tin thêm

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.22KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.49KNgười nắm giữ:3
    1.98%
  • Vốn hóa:$2.21KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.26KNgười nắm giữ:2
    0.15%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Ghim