✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
终于有一个真正重要的基准测试了。忘掉 MMLU 和数学成绩吧……PinchBench 测试哪个 AI 模型在实际工作中表现最好。不是回答琐事,而是真正做事情:→ 从多个网页来源查找信息 → 创建和安排会议 → 组织电脑上的文件 → 编写和管理电子邮件。它测试模型作为代理通过 OpenClaw 运行……意味着 AI 必须使用工具、链式操作,并完成端到端的任务。结果非常有趣:> Gemini 3 Flash 以 95.1% 领先 > MiniMax M2.1 紧随其后,达 93.6% > Kimi K2.5 达到 93.4% > Claude Sonnet 92.7% > Gemini 3 Pro 91.7% > Claude Haiku 90.8% > Claude Opus 4.6 90.6% > GPT-5 Nano 85.8% 顶端和底部的差距只有大约 10%……这意味着大多数前沿模型在代理任务上表现得相当不错。 但真正的结论是?Gemini Flash……一个轻量级模型……在实际代理工作中超越了所有重量级模型。速度 + 工具使用 > 原始智能。 这才是应该决定你日常使用哪个模型的基准……而不是一些没人关心的学术测试。