✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
阿里悄悄放了个大招。
CoPaw-Flash-9B——基于Qwen3.5的AI Agent模型。9B参数,能跑在你自己电脑上。
厉害在哪?
部分benchmark和Qwen3.5-Plus(闭源大模型)打平了。
90亿参数 vs 几百亿参数,分数差不多。
更让我兴奋的是CoPaw这个框架:
- 支持持久记忆(聊过的它记得)
- 多渠道连接(、飞书、Discord都能接)
- 本地部署,不用API费用
Qwen3.5的架构也很猛——总参数397B,每个token只激活17B。效率拉满。
你不需要H100服务器。一台MacBook可能就够跑一个个人AI助手了。
我在想把我内容pipeline的一些中间步骤(数据清洗、格式转换)挪到本地模型上,API费用能省一大半。
2026下半年,个人AI Agent可能会变成标配。
不过benchmark分数和实际体验是两回事。等我本地跑通了再说。