Nvidia ra mắt OpenShell v0.0.33 với trình điều khiển MicroVM libkrun để sandbox tác nhân AI

Tin tức Cổng, ngày 21 tháng 4 — Theo quan sát của Beating, gần đây runtime sandbox tác nhân AI mã nguồn mở của Nvidia là OpenShell đã phát hành phiên bản v0.0.33. Bản cập nhật giới thiệu libkrun, một trình điều khiển microVM nhẹ dựa trên KVM, cùng với các tính năng bảo mật được nâng cường, bao gồm bộ lọc seccomp được siết chặt hơn, định tuyến suy luận được cải thiện và giới hạn tiến trình chặt chẽ hơn. OpenShell sử dụng các chính sách dựa trên YAML để quản lý quyền truy cập tệp, ngăn chặn rò rỉ dữ liệu và các yêu cầu mạng trong sandbox, cung cấp khả năng cô lập thực thi mã an toàn cho các tác nhân tự chủ.

Trước đây, OpenShell dựa vào Kubernetes làm backend tính toán, chạy một cụm K3s trong một container Docker duy nhất. libkrun mang lại tốc độ khởi động gần như container nhưng vẫn cung cấp sự cô lập ở cấp độ VM, thêm một ranh giới cấp kernel để thực thi mã không tin cậy so với việc container hóa truyền thống.

Dự án đã tích lũy 5.2k lượt sao trên GitHub và hoạt động theo giấy phép Apache 2.0. Theo README chính thức, OpenShell vẫn đang ở giai đoạn alpha và hiện chỉ hỗ trợ chế độ chơi đơn với cấu hình một nhà phát triển, một môi trường và một cổng duy nhất.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Google Research Phát hành ReasoningBank: Các tác nhân AI Học các chiến lược suy luận từ Thành công và Thất bại

Tin cổng Gate News, ngày 22 tháng 4 — Google Research đã phát hành ReasoningBank, một khung bộ nhớ tác nhân cho phép các tác nhân điều khiển bởi mô hình ngôn ngữ lớn liên tục học hỏi sau khi triển khai. Khung này trích xuất các chiến lược suy luận phổ quát từ cả kinh nghiệm nhiệm vụ thành công và thất bại, lưu

GateNews24phút trước

Giáo sư Dai Jifeng của Đại học Thanh Hoa ra mắt Naive.ai, huy động ~$300M với định giá $800M

Tin tức Gate, ngày 22 tháng 4 — Dai Jifeng, giảng viên liên kết tại Khoa Kỹ thuật Điện của Đại học Thanh Hoa, đã sáng lập Naive.ai, một công ty tập trung vào huấn luyện sau mô hình mã nguồn mở và các tác nhân AI. Startup này đã huy động khoảng $300 triệu USD với định giá ước tính là $80

GateNews48phút trước

AWS mở rộng các quy trình AI nhiều tác nhân, hỗ trợ Claude Opus 4.7 trên Bedrock

Tin tức từ Gate, ngày 22 tháng 4 — Amazon Web Services đã công bố việc mở rộng các sáng kiến AI mang tính tác nhân thông qua các quy trình làm việc nhiều tác nhân, hỗ trợ Anthropic's Claude Opus 4.7 trên Amazon Bedrock để giúp khách hàng đi xa hơn các thử nghiệm AI sinh thành. Công ty đang mở rộng quan hệ đối tác khi khách hàng chuyển từ các công cụ AI đơn lẻ sang các hệ thống kết nối nhiều tác nhân chuyên biệt.

GateNews58phút trước

0G Labs Hợp Tác Với Alibaba Cloud để Bật Truy Cập Tác Nhân AI Trên Chuỗi tới Mô Hình Qwen

Tin tức từ Gate, ngày 22 tháng 4 — 0G Labs đã công bố quan hệ hợp tác với Alibaba Cloud nhằm cho phép các tác nhân AI trực tiếp gọi mô hình ngôn ngữ lớn Qwen của Alibaba trên chuỗi thông qua hạ tầng blockchain của 0G. Sự hợp tác này đánh dấu một sự chuyển dịch trong các mô hình tiếp cận AI từ cách làm dựa trên API sang

GateNews2giờ trước

0G tích hợp Alibaba Cloud Qianwen LLM, tác nhân AI trên chuỗi khối đầu tiên nhận được quyền truy cập mô hình ngôn ngữ thương mại

0G Quỹ đã công bố hợp tác chính thức với Alibaba Cloud vào ngày 21 tháng 4, đưa mô hình ngôn ngữ lớn Qwen vào cơ sở hạ tầng phi tập trung, để các tác nhân AI có thể trực tiếp gọi các LLM cấp doanh nghiệp từ môi trường trên chuỗi. Các nhà phát triển sẽ sử dụng các tính năng suy luận Qwen thông qua cơ chế kiểm soát truy cập bằng cổng mã thông báo, từ đó chuyển việc gọi LLM thành các thao tác có thể đo lường được trên chuỗi, khiến Qwen trở thành một trong những LLM thương mại đầu tiên được nhúng vào khung tác nhân phi tập trung.

MarketWhisper3giờ trước

ProCap Financial và Kalshi Ra mắt Sản phẩm Nghiên cứu Thị trường Dự đoán

Tin tức Gate ngày 22 tháng 4 — ProCap Financial, được hậu thuẫn bởi doanh nhân crypto Anthony Pompliano, đã hợp tác với nhà điều hành thị trường dự đoán Kalshi để ra mắt một sản phẩm nghiên cứu chuyên nghiệp được thiết kế riêng cho các thị trường dự đoán. ProCap sẽ truy cập dữ liệu của Kalshi thông qua một đường ống trực tiếp và sử dụng các tác nhân AI để phân tích các thị trường dự đoán, tạo ra các thông tin chi tiết cho đầu tư, các điểm dữ liệu của thị trường vốn chủ sở hữu, và tích hợp dữ liệu cổ phiếu vào các thị trường dự đoán. Sản phẩm sẽ được triển khai thông qua dịch vụ nghiên cứu tài chính của ProCap, ra mắt sớm hơn trong tháng này, bao gồm cổ phiếu, các xu hướng theo chủ đề và phân tích kinh tế vĩ mô.

GateNews3giờ trước
Bình luận
0/400
Không có bình luận