Đừng vội vàng All-in DeepSeek V4, hãy xem qua những lời chân thành của 10 người làm trong ngành này

null

Bài|Châu Hân Vũ Vương Vũ Thiện

Biên tập|Dương Xuân

Phân tích báo cáo kỹ thuật DeepSeek V4, là hoạt động tập thể sôi động nhất trong ngành AI những ngày này.

V4 có mạnh không? Trong góc độ tối ưu hóa kỹ thuật, câu trả lời là không cần bàn cãi. Trước đây, mọi người tin vào “Vẻ đẹp bạo lực của Scaling Law” — tức là dựa vào việc tích tụ nhiều sức mạnh tính toán chất lượng cao hơn, quy mô tham số lớn hơn để nâng cao hiệu suất mô hình. Còn V4 đi theo một con đường hoàn toàn khác, nó định nghĩa một “thẩm mỹ kiềm chế trong huấn luyện mô hình”:

Nó không dựa vào việc đổ nhiều sức mạnh tính toán và tham số, mà qua một loạt tối ưu hóa tổ hợp và tái cấu trúc:

Cơ chế chú ý (giúp mô hình học cách “bắt trọng tâm”, giống như khi con người đọc bài dài sẽ tự động chú ý đến câu quan trọng)

Kiến trúc MoE (mô hình chuyên gia hỗn hợp, có thể hiểu là “để các chuyên gia khác nhau phụ trách các loại vấn đề khác nhau, mỗi lần chỉ kích hoạt một số ít chuyên gia, tiết kiệm thời gian và công sức”)

Huấn luyện sau (mô hình sơ bộ đã thành thạo rồi, sau đó bổ sung bài tập đặc thù để tăng cường)

Hệ thống suy luận kỹ thuật (tối ưu hóa hiệu quả của các bước vận hành thực tế)

Kết quả của cách làm này là giúp V4-Pro khi xử lý ngữ cảnh dài hàng triệu token (khoảng vài chục nghìn chữ) cần đến sức mạnh tính toán chỉ còn 27% so với thế hệ trước V3.2, đồng thời bộ đệm KV dùng để tạm lưu trữ ngữ cảnh đối thoại (có thể hiểu là “ghi chú” trong quá trình chat của mô hình) đã nén còn 10% so với ban đầu.

Tuy nhiên, kỹ thuật chỉ là kỹ thuật, bảng xếp hạng chỉ là bảng xếp hạng.

Đánh giá một mô hình, chúng ta không mong chỉ dựa trên tham số trên giấy, mà muốn đặt vào các bối cảnh thực tế như triển khai, phát triển, đầu tư để thảo luận giá trị của V4. Vì vậy, chúng tôi đã mời gần 10 nhà phát triển, doanh nhân ứng dụng và nhà đầu tư, trải nghiệm và thử nghiệm trong vòng khoảng ba ngày.

Trước tiên, đưa ra một kết luận phản trực giác: ảnh hưởng của DeepSeek đến tầng ứng dụng có thể còn lớn hơn cả tầng mô hình.

Ngoài việc thán phục tối ưu kỹ thuật cực đại, như chính DeepSeek thừa nhận trong báo cáo V4: quỹ đạo phát triển chậm hơn các mô hình đóng nguồn mở tiên tiến từ 3 đến 6 tháng — thành quả của V4 hiện nay giống như giao dịch với quỷ dữ: kéo dài khả năng suy luận và năng lực Agent (tác nhân trí tuệ), đổi lại là đánh đổi một phần độ chính xác.

Các nhà cung cấp mô hình đóng nguồn tạm thời có thể thở phào nhẹ nhõm. Với thế giới thương mại chú trọng ổn định, chính xác, V4 rõ ràng chưa phải là mô hình có thể trực tiếp ứng dụng.

Chủ tịch khoa học Pine AI Lý Bách Kiệt, cùng một nhà sáng lập Agent Coding hàng đầu Chillin, đều thẳng thắn nói với chúng tôi rằng, độ ổn định của gọi công cụ + tỷ lệ ảo giác, hai điểm này cần được bổ sung ở tầng “harness” (tấm đai an toàn cho tác nhân trí tuệ, dùng để quy định hành vi, giảm rủi ro sai sót), còn việc triển khai V4 không thể thiếu “dàn giáo”.

Nhưng, hướng phát triển của trí tuệ nhân tạo, thường ảnh hưởng đến hệ sinh thái ứng dụng phía dưới. Do đó, khởi nghiệp AI sẽ đối mặt với thử thách kép về công nghệ và vốn.

“Hiệu năng của mô hình vẫn đang nhanh chóng tiến bộ” — câu này trong ngành cũng đồng nghĩa với việc các ứng dụng có thể bị mô hình thay thế bất cứ lúc nào. Một nhà đầu tư quỹ đa tiền tệ kể nhiều ví dụ “hôm qua còn hot như Workflow, Coding…”

CEO của công ty ứng dụng AI “Yueyue Intelligence” Trần Vĩ Phong tổng kết: rào cản của AI trong tương lai là tổ chức mô hình, Agent, bối cảnh sản phẩm và phản hồi dữ liệu thành một hệ thống sản xuất đáng tin cậy, chi phí thấp, có thể mở rộng quy mô.

Điểm sáng: không chỉ có khả năng xử lý văn bản dài và lập trình, mà còn có hiệu năng cao với chi phí thấp

Viết trước: lợi thế cốt lõi — khả năng mã hóa và tác nhân trí tuệ

Trong một số bài đánh giá chính về mã nguồn và kỹ thuật phần mềm, V4-Pro thể hiện trình độ cao nhất hiện nay trong các mô hình mã nguồn mở, gần như không thua kém các mô hình đóng nguồn hàng đầu. Dưới đây là dữ liệu chính đã tổng hợp:

AI vẽ đồ họa

🧑‍🏫 Đồng sáng lập kiêm CTO PingCAP Huang Đông Xu

Tôi đang chuyển đổi workflow Hermes của mình sang DeepSeek V4. Trước đây tôi dùng khá phí phạm, chủ yếu dùng Claude Opus và GPT5.4 làm tác nhân, nhưng sau đó tôi nhận ra phần lớn công việc hàng ngày không cần khả năng lập trình quá cao.

Các nhiệm vụ văn phòng hàng ngày gồm: (a) sắp xếp email hàng ngày; (b) viết bài; © quản lý lịch; (d) tổng hợp nội dung; (e) duyệt web.

Giờ tôi đã hoàn toàn chuyển sang DeepSeek V4. Hiệu quả vượt xa mong đợi, có thể do đã tối ưu cho tiếng Trung, khả năng ngôn ngữ tổng thể tốt hơn Opus và GPT, phù hợp hơn với người dùng tiếng mẹ đẻ.

Vì vậy, kết luận đầu tiên của tôi là: nếu bạn đang dùng các mô hình đắt hơn làm trợ lý hàng ngày, có thể yên tâm chuyển sang DeepSeek V4 Pro.

Khả năng của nó khoảng ngang Claude Sonnet 4.5 đến 4.6, nhưng giá chỉ bằng 1/4 hoặc ít hơn các mô hình hàng đầu. Giờ tôi gần như không còn lo về chi phí cho Agent nữa.

Trong bài báo của DeepSeek V4 luôn nhấn mạnh về ngữ cảnh 1 triệu token, nhưng tôi cảm thấy điểm này không quá mạnh, vì các mô hình SOTA hiện nay đều ít nhất cũng có ngữ cảnh 1 triệu token rồi, chỉ là bắt kịp thôi.

Điểm thực sự của nó là:

  1. Chi phí cực kỳ thấp;

  2. Là mô hình mã nguồn mở hoàn toàn.

Tôi không còn lo lắng về việc Anthropic hoặc OpenAI cắt nguồn cung, vì trước đây đã từng xảy ra rồi. Với điểm này, chuyển sang DeepSeek V4, cảm giác an toàn hơn.

Tiếp theo, về khả năng lập trình. Vì thời gian thử nghiệm còn ngắn, tôi chưa dùng để phát triển hệ thống phức tạp.

Nhưng trong quy mô vài nghìn dòng mã hoặc các ứng dụng nhỏ, xử lý các tình huống liên quan đến gọi API của các hệ thống bên thứ ba (ví dụ như kết nối với Supabase hoặc TiDB Cloud qua đọc tài liệu), cảm nhận của tôi là gần như không gặp vấn đề lớn.

Trong quy mô từ vài nghìn đến 10 nghìn dòng mã, thành công của V4 one-shot (cung cấp đủ ví dụ và lệnh một lần, không cần chỉnh sửa thêm) vẫn khá cao.

Vì vậy, nếu bạn chỉ làm các trang web nhỏ hoặc ứng dụng nhỏ, khả năng lập trình của DeepSeek chắc chắn vượt xa thế hệ trước.

Bởi vì framework Harness của tôi hiện tại không quá phức tạp trong sắp xếp nhân sự, chủ yếu dựa vào khả năng phối hợp của mô hình (dùng Slock.ai).

Nói ngắn gọn, có hai điểm:

  1. Nó có thể phối hợp với các Agent dùng mô hình khác;

  2. Nó hoàn thành các nhiệm vụ đơn giản / cụ thể.

Vì vậy, nếu phía trước có các mô hình mạnh hơn (ví dụ như GPT5.5 chẳng hạn) chỉ đạo hướng đi cho DeepSeek V4 Pro, rồi để nó thực thi, tôi nghĩ mô hình này có thể giảm đáng kể chi phí kỹ thuật của toàn bộ hệ thống Harness.

🧑‍🏫 Phó tổng giám đốc Trung tâm Công nghệ và Sản phẩm Zero One Wan Wu Zhi

DeepSeek V4 không phải “mạnh nhất”, nhưng là “đáng tin cậy nhất” — với cam kết mã nguồn mở kiên định, báo cáo kỹ thuật đầy đủ, chi phí suy luận cực thấp, toàn bộ công nghệ nội địa hóa, khiến nó trở thành lựa chọn mô hình nền tảng tối ưu nhất cho các doanh nghiệp (ToB).

Điều làm tôi ấn tượng nhất về V4 là hai điểm.

Thứ nhất, đổi mới kiến trúc nền tảng mô hình. Trong khung ngữ cảnh 1 triệu token, vẫn duy trì khả năng suy luận chất lượng cao, nhờ cơ chế chú ý hỗn hợp mới. Cơ chế này có thể hiểu đơn giản là: “đọc sơ qua” để nắm tổng thể, “đọc kỹ” để hiểu chính xác chi tiết.

Đặc biệt, trong việc nén ngữ cảnh, DeepSeek đã có những bước tiến rất tiên phong, và trong báo cáo kỹ thuật, họ công khai chi tiết rất rõ ràng. Sự trung thực và mở này trong ngành mô hình lớn cạnh tranh là rất quý giá.

Thứ hai, thích ứng toàn diện với hệ thống tính toán nội địa. DeepSeek đã hoàn thiện việc thích ứng với chip Huawei Ascend 910B/950, trong các cơ chế lượng hóa, rải rác, tối ưu chuyên gia lĩnh vực…

Điều này có nghĩa là từ chip đến phần mềm nền tảng, đến huấn luyện và suy luận mô hình, giải pháp toàn bộ nội địa đã tiến một bước thực chất. Dù chưa thể hoàn toàn thoát khỏi phụ thuộc Nvidia, nhưng đã xác định đúng hướng phát triển. Độ khó và ý nghĩa của việc này không thể nói quá.

🧑‍🏫 Chí sĩ Pine AI Lý Bách Kiệt

Điều ấn tượng nhất là DeepSeek đã thực sự chạy thành công một loạt các đổi mới kiến trúc như MoE, CSA+HCA hỗn hợp chú ý, mHC, Muon, FP4QAT trên quy mô mở lớn nhất hiện nay 1.6T (1.6 nghìn tỷ tham số).

Giống như ghép các công nghệ lý thuyết rất tiến bộ nhưng thường thất bại trong thử nghiệm nhỏ, vào một động cơ khổng lồ rồi vận hành ổn định. Chúng tôi đã thử hơn 20 kiến trúc đổi mới, kết luận gần như đều là “được khả thi trên 7 tỷ tham số, khi mở rộng thì đứt gãy hoặc phản tác dụng”.

Các mô hình của các hãng khác phần lớn cũng dừng lại ở bước này. Có thể làm cho nhiều đổi mới phối hợp tốt nhất ở quy mô lớn, chứng tỏ công nghệ huấn luyện của DeepSeek rất sâu, chỉ riêng công nghệ “mHC” đã tăng cường tín hiệu gấp gần 3000 lần trong thử nghiệm 27B, còn lại chỉ còn khoảng 1.6 lần, giúp huấn luyện ổn định và kiểm soát tốt.

🧑‍🏫 Phó chủ tịch Lenovo, Giám đốc Đầu tư Lenovo Venture, Đối tác cao cấp Thượng Xuân Vũ

DeepSeek chứng minh “hiệu suất chi phí AI” có thể trở thành lợi thế cấu trúc chủ động.

27%, dung lượng bộ nhớ chỉ 10%. Tổng tham số 1.6T lớn, nhưng mỗi lần chỉ kích hoạt 49B tham số, hiệu quả cực cao.

Cấu trúc giảm chi phí này, cộng với API V4-Flash giá 1 đồng/triệu token, khiến “ngưỡng dài hạn cho người bình thường” trở thành tiêu chuẩn mới của ứng dụng AI.

🧑‍🏫 CEO Yueyue Intelligence Trần Vĩ Phong

Điều làm tôi phấn khích nhất không chỉ là nâng cao khả năng đơn lẻ, mà còn là nó cho thấy mô hình lớn nội địa đã bước vào giai đoạn “tham gia cạnh tranh hệ thống Agent” thay vì chỉ “đuổi theo nền tảng”.

Trước đây, mọi người quan tâm mô hình có thể trả lời, suy luận, viết code; nhưng ngày nay, điều thực sự quan trọng là mô hình có thể ổn định hoàn thành mục tiêu trong các nhiệm vụ phức tạp, có thể tích hợp vào hệ thống sản phẩm thực với chi phí thấp và hiệu quả cao.

Đáng tiếc: để thực sự ứng dụng, V4 còn thiếu một số “dàn giáo”

Viết trước: Nhược điểm — kiến thức thực tế và suy luận cực đoan

DeepSeek chính thức và các nền tảng đánh giá chỉ ra một số điểm yếu rõ ràng của V4-Pro. Để trực quan hơn, chúng tôi đã tổng hợp các điểm yếu chính vào bảng dưới đây:

AI vẽ đồ họa.

🧑‍🏫 Đồng sáng lập kiêm CTO Pine AI Lý Bách Kiệt

Tôi chủ yếu dùng các tác vụ liên quan đến mã và Agentic. Trong loại công việc này:

Khả năng gọi công cụ và kiến thức thế giới chung của V4-Pro gần như ngang bằng các mô hình hàng đầu (tương đương Claude 4.6 Sonnet);

Nhưng độ ổn định gọi công cụ + tỷ lệ ảo giác vẫn là điểm yếu — cần bổ sung ở tầng “harness” (dàn giáo an toàn) như tăng kiểm tra, tự động thử lại khi thất bại, dùng kho kiến thức bên ngoài để mô hình “địa phương hóa”, quy định rõ ràng các quy tắc sử dụng công cụ, nếu không, khi chuỗi nhiệm vụ dài, lỗi sẽ ngày càng lớn;

Khi tầng harness khắc phục hai điểm này, tổng chi phí suy luận có thể thấp hơn nhiều so với các mô hình hàng đầu — đó mới là đòn bẩy thực sự.

Một điểm nữa là: V4-Flash, như một dạng tinh chỉnh theo chiều dọc, rất tốt. Tinh chỉnh theo chiều dọc là gì? Là dựa trên mô hình chung, dùng dữ liệu chuyên ngành để “bổ sung bài học”, biến nó thành chuyên gia trong lĩnh vực đó.

Mô hình siêu lớn 1.6T tham số để huấn luyện hậu (SFT/RL) quá đắt, hầu hết các công ty không thể gánh nổi, còn các mô hình 200-300B tham số mới là chủ đạo để hậu huấn. Trước đây, chúng tôi đã làm hậu huấn trên 235B (2350 tỷ tham số) của Qianwen, hiệu quả rõ rệt kém hơn so với V4-Flash cùng kích cỡ.

Flash đã bắt kịp hiệu năng của các mô hình mở hàng đầu thế hệ trước, vượt qua hơn 600B của V3.2 và Kimi cũ. Flash sẽ trở thành nền tảng ưu tiên cho tinh chỉnh doanh nghiệp.

🧑‍🏫 Nhà sáng lập Coding Agent Chillin

Chúng tôi kết luận sau thử nghiệm nội bộ: Trong lĩnh vực Coding Agent, DeepSeek V4 đã đạt trình độ của Claude hơn một năm trước.

Vấn đề có thể nằm ở hai điểm, một là quy mô tham số, hai là dữ liệu. DeepSeek còn rõ ràng còn kém xa Anthropic.

Để thực sự ứng dụng, V4 cần thêm một số “dàn giáo đặc thù”, như SWE-Agent (tác nhân phần mềm), OpenHands (mô hình mã nguồn mở cho Coding), Claude Code, OpenClaw. Tất cả đều cần cấu hình thêm của nhà phát triển.

🧑‍🏫 CEO Yueyue Intelligence Trần Vĩ Phong

Dựa trên thực tế sử dụng Loopit (sản phẩm nội bộ của Yueyue Intelligence về nội dung tương tác AI, chủ yếu trong lĩnh vực Coding), để khách quan, khả năng thực thi các nhiệm vụ dài và phức tạp của DeepSeek V4 vẫn còn cách xa các mô hình đóng nguồn hàng đầu quốc tế.

Các mô hình nội địa hàng đầu đang ngày càng gần nhau hơn. Điều này cho thấy cạnh tranh mô hình đang bước vào giai đoạn mới: trong thời đại Agent, khả năng hiểu ngữ cảnh dài, thích ứng khung phức tạp, ổn định hoàn thành nhiệm vụ dài hạn, và vận hành với chi phí và tốc độ chấp nhận được đều trở nên quan trọng như nhau.

Sự khác biệt thực sự không chỉ nằm ở mô hình, mà còn ở hệ thống tổng thể gồm mô hình, hậu huấn, khung Agent, hệ thống đánh giá và hiệu quả kỹ thuật.

🧑‍🏫 Phó chủ tịch Lenovo, Giám đốc Đầu tư Lenovo Venture, Đối tác cao cấp Thượng Xuân Vũ

Việc V4 ra mắt chưa có phiên bản đa mô thức nguyên bản (tức là cùng xử lý văn bản, hình ảnh, âm thanh), điều này hơi đáng tiếc trong bối cảnh thị trường hiện nay.

Nhưng kết hợp chiến lược toàn diện nội địa hóa chip tính toán, có thể đây là bước tạm thời để tập trung nguồn lực giải quyết vấn đề cốt lõi của nền tảng tính toán.

🧑‍🏫 Phó tổng giám đốc Trung tâm Công nghệ và Sản phẩm Zero One Wan Wu Zhi

Nói “không đạt kỳ vọng” có vẻ hơi quá, nhưng nếu xét từ góc độ người dùng cá nhân (ToC), việc thương mại hóa còn chưa đủ — phiên bản Flash liên quan đến sáng tạo, lập trình và các nhiệm vụ phức tạp khác còn hạn chế; phiên bản Pro dù gần đạt trình độ các mô hình đóng nguồn hàng đầu, nhưng yêu cầu ban đầu về sức mạnh tính toán khá cao, có rào cản gia nhập.

Ảnh hưởng: AI không đơn thuần ngày càng rẻ hơn

🧑‍🏫 CEO Yueyue Intelligence Trần Vĩ Phong

Một xu hướng quan trọng là AI không đơn thuần ngày càng rẻ hơn.

Chi phí gọi các mô hình cao cấp nhất thế giới thực ra đang tăng lên, vì chúng đảm nhận các nhiệm vụ phức tạp hơn, ngữ cảnh dài hơn, giá trị cao hơn. Các mô hình trung bình, mã nguồn mở và có thể tự triển khai mới thực sự trở nên rẻ hơn nhanh chóng.

Vì vậy, các công ty ứng dụng trong tương lai sẽ không chỉ hỏi “mô hình nào mạnh nhất”, mà cần xây dựng một hệ thống điều phối mô hình: nhiệm vụ nào cần mô hình mạnh nhất, nhiệm vụ nào có thể dùng mô hình hiệu suất cao, và khả năng nào có thể bổ sung qua khung Agent và hệ thống kỹ thuật.

Ý nghĩa của DeepSeek V4 là nó mở rộng nguồn cung mô hình hơn nữa.

Với doanh nghiệp, nó không chỉ đơn thuần thay thế một mô hình nước ngoài, mà còn giúp các ứng dụng linh hoạt phối hợp nhiều mô hình, tự triển khai và tối ưu chi phí.

Tương lai, rào cản của AI không còn chỉ là gọi một mô hình, mà còn là tổ chức mô hình, Agent, bối cảnh sản phẩm và phản hồi dữ liệu thành một hệ thống sản xuất đáng tin cậy, chi phí thấp, có thể mở rộng quy mô.

Đối với Loopit, xu hướng này cực kỳ quan trọng. Chúng tôi làm nội dung tương tác AI, khả năng của mô hình quyết định giới hạn sáng tạo, còn chi phí và tốc độ quyết định khả năng mở rộng sáng tạo.

Chỉ khi các tầng mô hình đều đủ khả dụng và có thể phối hợp hiệu quả, ý tưởng của người dùng mới có thể được tạo ra, tương tác và lan tỏa theo thời gian thực. Tiến trình của DeepSeek V4 sẽ thúc đẩy quá trình này nhanh hơn.

🧑‍🏫 Đồng sáng lập Pine AI Lý Bách Kiệt

Trong thị trường tinh chỉnh theo chiều dọc, các mô hình nền như Qianwen, Llama 200-300B đã bị hệ thống Flash của V4-Flash thay thế toàn diện.

Tất cả các nhóm huấn luyện hậu cho kích cỡ này đều sẽ đánh giá lại; hiệu quả của Flash cùng kích cỡ vượt trội, phù hợp với các framework suy luận như SGLang/vLLM/TileLang, dự kiến trong 6 tháng tới sẽ trở thành điểm khởi đầu mặc định của các mô hình nội địa mở trong lĩnh vực này.

Hệ sinh thái suy luận của Huawei Ascend 950 SuperNode chính thức bắt đầu, đe dọa giá trị của chip Nvidia.

Đây là giải pháp “trọn gói” đầu tiên chạy thành công hoàn chỉnh “chip nội địa + mô hình mở nội địa hàng đầu” (NVIDIA/AMD chưa từng có V4 sớm thích ứng), sau nửa năm nữa khi 950 ra hàng quy mô lớn, sẽ xuất hiện làn sóng thay thế suy luận nội địa trong các bối cảnh Agent dài ngữ cảnh;

Ảnh hưởng gián tiếp là định giá và mức độ ưu đãi của Nvidia tại thị trường Trung Quốc sẽ bị điều chỉnh lại — không phải do doanh số giảm, mà do khả năng thương lượng bị siết chặt.

Chi phí tổng thể để thực thi các nhiệm vụ dài hạn của Agent giảm mạnh.

V4-Pro, khi nhập ( cache chưa trúng, đã giảm chi phí xuống còn 1.74 USD/đầu ra 3.48 USD + KV hiệu quả cao cho 1 triệu token + MegaMoE, đã đưa chi phí trên token xuống còn 1/6-1/7 so với các mô hình hàng đầu.

Chỉ cần ngành công nghiệp hoàn thiện tầng harness để ổn định khả năng gọi công cụ + tỷ lệ ảo giác của V4 (bằng bộ kiểm tra, kết nối bên ngoài, schema chặt chẽ, bỏ phiếu nhất quán), thì các nghiên cứu đa bước, các ứng dụng dài hạn như Agent, tìm kiếm sâu sẽ từ demo chuyển sang thực tế trong nửa cuối năm nay, điểm bứt phá về kinh tế của Agent nằm trong làn sóng này.

Và, các nhà cung cấp đóng nguồn hàng đầu sẽ không giảm giá — sản phẩm của họ vẫn dẫn đầu rõ ràng, V4 không gây áp lực về giá.

🧑‍🏫 Phó tổng giám đốc Trung tâm Công nghệ và Sản phẩm Zero One Wan Wu Zhi

Chìa khóa của ứng dụng AI doanh nghiệp (ToB) là: đảm bảo hiệu quả trong khi kiểm soát chi phí toàn vòng. Sự xuất hiện của DeepSeek V4 cung cấp một giải pháp cạnh tranh rất mạnh.

Phiên bản Flash phù hợp cho các nhiệm vụ đơn giản, Pro phù hợp cho các bối cảnh phức tạp cao, tổng chi phí sẽ giảm đáng kể so với các giải pháp đóng nguồn hàng đầu, giúp Zero One Wan Wu nâng cao đáng kể tỷ lệ hiệu quả chi phí khi triển khai.

Quan trọng hơn, việc mã nguồn mở của DeepSeek là kiên định, không dao động, không đột ngột đóng nguồn làm lãng phí đầu tư. Thái độ mã nguồn mở kiên định này mang lại sự chắc chắn quý giá cho các doanh nghiệp trong lựa chọn công nghệ.

Zero One Wan Wu đã bắt đầu toàn diện đánh giá và xác thực khả năng dựa trên DeepSeek V4, tập trung vào hiệu suất trong điều phối sản xuất, văn phòng thông minh, quản lý đầu tư và các bối cảnh cốt lõi khác của doanh nghiệp. Sau khi đạt tiêu chuẩn, sẽ xem xét thay thế các mô hình cũ, để nhiều khách hàng ngành khác có thể dùng mô hình nội địa hàng đầu.

Sau khi V4 ra mắt, tôi dự đoán ngành sẽ có ba thay đổi chính:

  1. Giải pháp toàn bộ công nghệ nội địa bước vào giai đoạn phát triển, thay thế nội địa hóa từ “giấc mơ” thành “hiện thực”

Việc DeepSeek thành công thích ứng Huawei Ascend có nghĩa là ngành AI nội địa đã tiến một bước thực chất trong hướng “chip + framework + mô hình + ứng dụng” toàn bộ nội địa.

Với các khách hàng doanh nghiệp có yêu cầu tuân thủ, đây là nhu cầu bắt buộc. Quá trình thay thế nội địa trong thị trường ToB sẽ tăng tốc rõ rệt.

  1. Mô hình mã nguồn mở thúc đẩy các mô hình đóng nguồn giảm giá, giảm tình trạng các doanh nghiệp ứng dụng bị mô hình đóng nguồn hút máu

DeepSeek với giá thấp hơn nhiều so với các mô hình đóng nguồn hàng đầu, gần như đạt hiệu quả tương đương, sẽ tạo hiệu ứng thúc đẩy hiệu suất chung của các mô hình mã nguồn mở.

Điều này sẽ gây áp lực lên các nhà cung cấp như Anthropic, OpenAI về chiến lược giá cao. Lợi nhuận ngành sẽ dịch chuyển từ mô hình nền sang các ứng dụng ngành sâu, có lợi dài hạn cho sự phát triển của AI.

  1. Mô hình mã nguồn mở ≠ ứng dụng doanh nghiệp, khả năng Harness trở thành ranh giới mới

Việc mã nguồn mở giúp giảm rào cản ban đầu, nhưng khả năng triển khai thực tế còn phụ thuộc vào Harness. Từ mô hình mở chất lượng cao đến sản phẩm doanh nghiệp ổn định, đáng tin cậy, còn có các yếu tố như loại bỏ ảo giác, tuân thủ lệnh, kiểm tra lỗi, tích hợp chuyên môn.

Mỗi ngành có yêu cầu riêng, không có một Harness chung nào phù hợp toàn diện. Đây chính là lợi thế cốt lõi của Zero One Wan Wu: dựa trên đánh giá tự động, phản hồi tự động, cải tiến tự động, tích hợp chuyên môn, xây dựng nhanh hệ thống Harness riêng cho từng ngành, để mô hình lớn thực sự dùng trong kinh doanh.

🧑‍🏫 Phó chủ tịch Lenovo, Giám đốc Đầu tư Lenovo Venture, Đối tác cao cấp Thượng Xuân Vũ

Thứ nhất, ngữ cảnh dài triệu token trở thành “tiêu chuẩn” của ứng dụng, thúc đẩy bùng nổ Agent: khả năng ngữ cảnh dài của V4 trở thành hạ tầng phổ cập.

Thứ hai, cạnh tranh ngành chuyển từ “đua mô hình” sang “đua ứng dụng và dữ liệu”: khi các mô hình mở hàng đầu gần như ngang bằng các mô hình đóng, chi phí giảm mạnh, thì mô hình không còn là rào cản hiếm có nữa. Đầu tư và cạnh tranh trong tương lai sẽ tập trung vào ai khai thác tốt các mô hình nền này, xây dựng vòng khép kín dữ liệu và ứng dụng trong các lĩnh vực cao giá trị như y tế, tài chính, pháp lý, tạo ra lợi thế cạnh tranh.

Thứ ba, ngành công nghiệp tính toán nội địa sẽ đón nhận cơ hội đầu tư lớn: thành công của V4 chứng minh rằng mô hình lớn nội địa cũng có thể “đoạt vương miện”. Điều này sẽ thúc đẩy nhu cầu chắc chắn về tính toán nội địa, kích thích đầu tư toàn bộ chuỗi ngành từ thiết kế chip, máy chủ đến dịch vụ đám mây.

Chúng tôi dự đoán, “năm nay, tính toán nội địa sẽ thay thế tính toán nước ngoài của năm ngoái”, xu hướng này và phản ánh của thị trường vốn sẽ rất mạnh.

Chúng tôi sẽ tập trung nguồn lực vào các dự án “có thể thương mại hóa nhanh, có thể ứng dụng thực tế, có thể tạo ra rào cản sản phẩm”, đồng thời duy trì đầu tư dài hạn vào hạ tầng kiến trúc và nền tảng tính toán.

🧑‍🏫 Nhà đầu tư quỹ đa tiền tệ

Ước mơ của tôi năm nay là: danh mục mô hình nền (Portfio) được các nhà đầu tư rót vốn thành công.

Sau khi DeepSeek bắt đầu huy động vốn, chắc chắn sẽ hút lượng lớn vốn từ thị trường sơ cấp (đặc biệt là vốn nhà nước). Với các công ty mô hình nền còn chưa IPO, việc huy động vốn liên tục là không bền vững.

Tôi còn có một quan điểm bi quan hơn: năm nay, huy động vốn trong lĩnh vực ứng dụng sẽ gặp khó.

Khả năng mô hình nền còn đang tiến bộ nhanh, dẫn đến nhiều ứng dụng có thể bị mô hình thay thế. Giống như năm ngoái, Coding, Workflow rất hot, nay trong thị trường sơ cấp ít ai còn nhắc đến nữa.

🧑‍🏫 Nhà sáng lập Coding Agent Chillin

Mã nguồn mở là điều tốt, DeepSeek V4 có thể thúc đẩy giao lưu và tối ưu hơn nữa. Nhưng khoảng cách thời gian kéo dài quá, khiến người ta cảm thấy khá khó chịu;

DeepSeek V4 sẽ buộc các nhà phát triển mô hình phải đối mặt tích cực hơn với vấn đề quy mô và dữ liệu, nhưng hai vấn đề này cực kỳ khó giải quyết, đó là vấn đề về vốn;

Nó cũng chứng minh rõ hơn giới hạn của Scaling Law. Việc nâng cao hiệu suất qua kỹ thuật kỹ thuật là có hạn, buộc mọi người phải tìm giải pháp ở tầng thấp hơn. Con đường còn dài và xa xăm.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim