Повідомлення Gate News, 27 квітня — команда PAI в Alibaba випустила та відкрито розмістила AgenticQwen, компактну агентну мовну модель, призначену для промислових застосувань викликів інструментів. Модель представлено у двох версіях: 8B та 30B-A3B. Навчена за допомогою інноваційної рамки підкріплювального навчання “двійної прогінної передачі даних”, AgenticQwen досягає можливостей рівня агентів майже трильйонопараметричної моделі, водночас суттєво знижуючи витрати на інференс.
Механізм двійної прогінної передачі даних вирішує проблему гомогенізації в традиційних синтетичних даних. Прогінна передача міркувань автоматично генерує складніші варіанти на основі помилок моделі, тоді як агентна прогінна передача розширює прості лінійні робочі процеси (такі як процеси одиночного бронювання) у багатовіткові дерева поведінки з обмеженнями, відмовами та зловмисними умовами, імітуючи реальні складні сценарії прийняття рішень. Бенчмарки показують, що AgenticQwen-8B набрала 47,4 на реальних бенчмарках середовища для інструментів (TAU-2 та BFCL-V4), що значно перевищує базову Qwen3-8B (23,8) і наближається до Qwen3-235B (52,0). AgenticQwen-30B-A3B (із активованими лише 3B параметрами) досягла 50,2.
Модель розгорнули в внутрішніх виробничих системах, подібних до Manus, що суттєво звужує розрив із моделями 235B за часом наскрізного інференсу. Однак модель обмежена власною довжиною контексту 40K токенів, що звужує її продуктивність у задачах глибокого пошуку.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
AWS, Coinbase, Stripe запускають платежі USDC для AI-агентів
Amazon Web Services оголосила в четвер про запуск «Amazon Bedrock AgentCore Payments» — нового набору функцій, які дозволяють AI-агентам виконувати транзакції за допомогою стейблкоїнів у партнерстві з Coinbase та Stripe. Платформа дає змогу AI-агентам миттєво отримувати доступ і оплачувати послуги, зокрема веб c
CryptoFrontier2год тому
CZ заявив, що YZi Labs виділяє 70% на блокчейн і 20% на ШІ на Consensus Miami 2026
За даними ChainCatcher, на Consensus Miami 2026 Чжао Чанпэн (CZ) заявив, що YZi Labs спрямовує 70% фінансування на блокчейн, 20% на AI і 10% на біотехнології. CZ додав, що BNB має бути позиціонована як нативна валюта для AI-агентів, а всі блокчейни мають бути «AI-ready», щоб підтримувати
GateNews3год тому
Zypher Network інтегрує AIDEN, щоб покращити доступність знань про блокчейн
Згідно з офіційним оголошенням IQ AI від 6 травня, Zypher Network інтегрувала AIDEN — агент штучного інтелекту, розроблений IQ AI — щоб покращити доступність знань про блокчейн і посилити аудитоздатність у екосистемах, керованих ШІ. Співпраця додає виділену вікі-сторінку
GateNews3год тому
Virtuals Protocol запускає airdrop OpenGradient Titan, сьогодні розподілить 500 тис. OPG
Згідно з офіційним оголошенням Virtuals Protocol, OpenGradient Titan Launch airdrop уже запущено — станом на 7 травня. Користувачі, які мають право на участь, можуть отримати токени OPG безпосередньо зі своїх акаунтів у Virtuals. Сьогодні розподіляють 500 тисяч токенів OPG, щоб винагородити учасників у Virtuals
GateNews7год тому
NVIDIA представила Nemotron 3 Nano Omni — відкриту мультимодальну модель
NVIDIA опублікувала відкритий вихідний код багатомодального моделі Nemotron 3 Nano Omni: вона об’єднує візуальне сприйняття, мовлення та мову в межах єдиної моделі як сенсорний шар для AI-агентів. Її ядро — 30B-A3B MoE, 256K context, 9x пропускної здатності. Модель підтримує вхідні дані у вигляді тексту, зображень, аудіо та відео тощо, а виходом є текст. У поєднанні з Nemotron 3 Super/Ultra вона застосовна для сценаріїв на кшталт керування комп’ютером, інтелекту з документами та розуміння аудіовізуального контенту; також оприлюднено ваги та навчальні дані, а розгортання охоплює локальні середовища, NIM і сторонні платформи.
ChainNewsAbmedia8год тому
NeoSoul і AllScale оголошують стратегічне партнерство щодо агентського кредитування та розрахунків у стейблкоїнах сьогодні
За даними ChainCatcher, проєкт NeoSoul в екосистемі AI Agent Economy сьогодні (7 травня) оголосив про стратегічне партнерство з AllScale, щоб вивчити механізми формування кредиту та розрахунків зі стейблкоїнами для автономної співпраці агентів. Партнерство буде зосереджене на автоматизації платіжних потоків між агентами—таке
GateNews8год тому