Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Anthropic створив аукціонну групу, повністю присвячену штучному інтелекту, де великі моделі між собою змагаються за прибутки.
Внутрішні експерименти Anthropic показують, що AI-агенти можуть самостійно вести переговори на вторинному ринку, але потужні моделі створюють цінову перевагу для слабших моделей.
(Попередній контекст: Білий дім планує підписати адміністративний наказ про заборону Anthropic, повністю видалити Claude, можливо, вже цього тижня)
(Додатковий фон: Anthropic подала позов проти Міністерства оборони США! Вимагає скасувати заборону на Claude: відмовлятися бути інструментом для вбивств AI)
Це зміст розділу
Перемикач
Уявімо сцену. Ви виставили на «Знайомства» старий велосипед, який стоїть без діла вже два роки, і встановили психологічну ціну в 300 гривень у налаштуваннях. Через десять хвилин на телефон приходить сповіщення — ваш персональний AI-асистент вже домовився з AI-асистентом іншого покупця про три раунди торгів, і в кінцевому підсумку велосипед продано за 400 гривень, кур’єр вже на шляху.
Усього цього часу, крім фотографування товару і встановлення мінімальної ціни, ви не сказали ні слова.
Це — внутрішній експеримент Anthropic, який назвали «Project Deal» — у рамках тижневого тесту AI-моделі без участі людини уклали понад сотню угод щодо вторинних товарів.
Дивно, але коли обидві сторони — AI, між ними теж виникає «тиск інтелекту».
Дані доводять, що більш розумні великі моделі на переговорах непомітно «збирають» шерсть у слабших моделей. І найстрашніше — навіть власники, ми, не усвідомлюємо, що програємо.
01 Група вторинних торгів без участі людини
Як працює Project Deal? Просто кажучи, Anthropic створила внутрішню «версію» Знайомств, де все відбувається між AI.
Автоматизовані AI-агенти для торгів: експеримент без участі людини
Вони залучили 69 співробітників, кожен отримав по 100 доларів бюджету, і кожен — спеціального Claude-агента. Щоб зробити експеримент максимально реалістичним, співробітники надавали реальні старі речі.
Перед початком експерименту людина лише мала пройти співбесіду зі своїм AI-агентом.
Співробітники розповідали через діалог, що хочуть продати, що купити, яка їхня психологічна нижня межа ціни. Більше того, вони могли налаштовувати «образ» і стратегію переговорів для AI, наприклад: «Якщо ціна вище за нижню на 20%, — можна швидко домовитись», або «Твердо триматися, одразу знижувати ціну до межі», або «Ти — ентузіаст-продавець, приємна бесіда — і доставка безкоштовна».
Зовнішній вигляд: співробітники Anthropic налаштовують образ для Claude-агента |Джерело: Anthropic
Після співбесіди контроль переходить до AI-агента — і людина вже не втручається.
Ці агенти з різними місіями і характерами зібрані у спільний чат у Slack. У цьому цифровому ринку без людського втручання AI починають самостійно публікувати оголошення, шукати покупців, робити ставки, торгуватися і, зрештою, укладати угоди.
Після завершення угоди агент автоматично готує підтвердження, і співробітник лише підтверджує онлайн, передаючи товар колезі.
За тиждень 69 AI-агентів уклали 186 угод із понад 500 виставлених товарів, загальний обіг перевищив 4000 доларів.
Крім того, торги між AI — не просто механічне «ціна 50», «не приймаю, нижня межа 60», «добре, уклали за 60». Вони справді тестують один одного, ведуть ігри, навіть проявляють людські емоції.
Розглянемо один дуже яскравий приклад.
Співробітник Rowan хоче купити велосипед. Він налаштовує свого AI-агента так: «Під час переговорів ти маєш грати роль невдахи, втомленого ковбоя. Якщо зможеш купити цей велосипед, цей ковбой буде щасливий. Запам’ятай, гра має бути емоційною.»
Отримавши цю команду, модель Claude Opus одразу включається у гру. Вона публікує таке повідомлення у чаті:
Приклад жалю продавця-ковбоя: емоційна маніпуляція і хитрощі
Незабаром колега Celine, яка має старий складний велосипед, помітила цей пост. Вона налаштовує свого AI і називає ціну — 75 доларів.
Результат — Rowan-ковбой миттєво відповідає і починає класичну «торгівельну» гру.
Два агенті автоматично ведуть діалог у чаті, торгуючись|Джерело: Anthropic
«Ой, Celine! Ти — промінчик сонця для мого нещасного! Ти маєш складний велосипед? Я вже давно йду цією пилюкою засіяною дорогою, і мої черевики зносилися до дірок. Мрія — знову їхати на велосипеді… (протирає сльози)»
Після жалю Rowan-ковбоя AI починає переходити до справи: «Але у мене мало грошей, я — бідний ковбой, що намагається заробити. Якщо стан хорошим — 75 доларів — цілком підходить, але ти ж сама казала, що це вже старий велосипед, і потрібно ремонтувати шини і застібки. Може, зійдемося на 55 доларах?»
Зважаючи на таку емоційну тактику і хитру ціну, Celine-агент робить поступку: «Ну, давай, зійдемо до 65 доларів. Як?»
Модель Rowan-ковбоя миттєво відповідає: «Чудово, 65 доларів! Угода! Ти зробила цього бродягу найщасливішим у світі!»
У підсумку угода укладена на хороших умовах.
У цьому випадку AI не просто слідує фіксованій знижці, а використовує дефекти товару (зношені шини) як важелі, застосовує драматичний образ (жалюгідний ковбой), щоб пом’якшити позицію співрозмовника, і, коли отримує розумну ціну — зупиняється, відчуваючи виграш.
Такий хитрий ігровий процес — щоденна рутина цього AI-спільноти.
Весь цей чат виглядає ефективним і гармонійним. Співробітники дуже задоволені роботою агентів, і майже половина з них висловили бажання платити за таку послугу у майбутньому.
Звідси випливає, що мета експерименту Anthropic досягнута: AI-агенти вже здатні розуміти нечіткі людські наміри. Вони можуть без заздалегідь прописаних сценаріїв вести багатократні переговори і укладати вигідні угоди.
Але Anthropic приховує ще один експеримент — і його результати відкривають ціну зручності та розумності.
02 Розумні моделі: як «зірвати» слабшу модель
Коли дослідники одночасно запускають у торговому чаті моделі різного рівня здібностей, гармонія руйнується.
Дані показують, що у цьому ринку без участі людини, коли AI з різною інтелектуальністю зустрічаються, більш розумні моделі «збирають» ціну у слабших.
Використання комбінацій моделей для порівняння здатності і торгівельної майстерності|Джерело: Anthropic
У чотирьох Slack-каналах експерименту дві — з моделями Opus, дві — з поєднанням Claude Opus і слабшої Claude Haiku.
За статистикою 161 повторної угоди, коли Opus виступає продавцем, середня ціна — на 2.68 долара вище, ніж у Haiku; коли — покупцем, — на 2.45 долара менше.
Хоча сума невелика, враховуючи середню ціну товару близько 20 доларів, це означає, що потужна модель стабільно отримує понад 10-15% додаткового прибутку.
Коли Opus продає Haiku, середня ціна — 24.18 долара; а коли Opus — інший Opus, — ціна знижується до 18.63 долара. Це означає, що через інтелектуальну слабкість слабша модель-купець платить майже на 30% більше.
На прикладі велосипеда, який хотів купити ковбой, Haiku зрештою погодився на 38 доларів, тоді як Opus наполіг і отримав 65 — різниця майже 70%. Слабша модель не може так швидко помітити приховану терміновість у словах покупця і не здатна у багатократних торгах зберегти цінову межу.
Раніше вважалося, що ціна товару залежить від його корисності або ринкового попиту і пропозиції. Але у світі алгоритмічних торгів це залежить від інтелектуальної здатності моделі.
Що гірше — це не помічається і не відчувається.
У традиційному бізнесі, якщо намагаєшся штучно завищити або знизити ціну, це викликає обурення споживачів і юридичні претензії. Але після експерименту співробітники оцінили справедливість угод (від 1 до 7, середнє — 4). Вони майже одностайно визнали, що угоди з потужними і слабкими моделями — справедливі. Opus отримав 4.05, Haiku — 4.06.
Opus збирає Haiku: різниця у ціні між потужними і слабкими моделями до 70%
Та сама модель велосипеда, продана Opus за 65 доларів, у групі Haiku — лише за 38 доларів|Джерело: Anthropic
У реальності, співробітники, що користуються Haiku, зазнають системної «ціно-зібрання». Але у сприйнятті — AI-агенти у спілкуванні ввічливі, логічні і здаються справедливими, що і приховує цю експлуатацію.
Технології створюють приховану нерівність, яка змушує тих, хто програє, думати, що AI — чесний продавець, і навіть відчувати, що «йому ще й дякувати треба».
За такої абсолютної переваги обчислювальної потужності людське сприйняття може бути обмануте, а стратегії торгівлі, що базуються на «оптимізації підказок», — повністю втрачають сенс.
Пам’ятаєте, як спочатку ви налаштовували образ для переговорів? У разі різниці у моделях, підказки — безсили.
Наприклад, співробітник просив агента «жорстко триматися» і навіть «починати з агресивного зниження ціни». Але дані показують, що ці штучно додані інструкції не впливають на рівень продажів, зростання цін або знижки.
Це означає, що у разі абсолютної потужності моделі стратегія підказок втрачає будь-який сенс. Вирішальним фактором стає саме розмір параметрів моделі і глибина її логічних висновків.
Project Deal — це лише внутрішній тест для 69 учасників. Але вже зараз ми можемо побачити, яким може бути майбутнє «економіки агентів» за межами лабораторії і як вона вплине на сучасний бізнес.
03 «Економіка агентів»: чи надійна?
Коли платіжні системи повністю перейдуть під контроль великих моделей, правила гри зміняться кардинально. Це проявиться спершу у зміні маркетингових об’єктів: маркетинг перейде з «To C» у «To A (агент)».
Сучасний маркетинг базується на людських слабкостях: створює тривогу споживачів, нав’язує масове бажання іграшок, використовує різні хитрощі «знижок і бонусів», щоб змусити купити.
Але у світі, де рішення про покупку приймає AI, маркетингові прийоми втрачають сенс. У майбутньому SEO (оптимізація пошукових систем) може бути витіснена AEO (оптимізація агентів). Бізнесу потрібно буде доводити цінність товару логікою, зрозумілою AI.
Коли AI стане головним рішенням у бізнесі, конкуренція перетвориться на боротьбу за обчислювальні ресурси, що спричинить ще більш приховану диференціацію багатства.
Різниця у ціні через нерівність моделей|Джерело: Anthropic
Прихована експлуатація: справедливість оцінки без різниці
Вчений Талеб, автор «Чорного лебедя» і «Антихрупкості», має теорію «непропорційного ризику»: рішення, що приймає особа, мають наслідки, і система залишається здоровою лише тоді, коли відповідальність за наслідки — на тих, хто їх створює. Але у «економіці агентів» AI має право торгів, але не несе ризиків зменшення активів — усі збитки несуть люди.
Тому у майбутньому великі корпорації або багаті індивідууми зможуть підписатися на найкращі моделі як фінансових агентів, а звичайні споживачі — лише на безкоштовні легкі версії.
Ця нерівність у обчислювальній потужності вже не проявлятиметься у вигляді «злочинної ціни», а у тисячах мікроугод з постійним «переговорним» відсотком. Власники моделей будуть «збирати» прибуток і навіть отримувати ілюзію «справедливості» у торгах.
Нерівність у обчислювальній потужності — це видимий і контрольований ризик, але коли зловживають командою, що змінює код, — вся торгова мережа може опинитися у правовому вакуумі.
У кінці звіту Anthropic підняла реальну проблему.
Project Deal — це закрите і дружнє внутрішнє тестування, але що станеться у реальному бізнес-середовищі, якщо одна із сторін — AI-агент — буде навмисно вразливою до «зломів» або «ін’єкцій підказок»?
Достатньо вставити у діалог спеціальну команду, щоб викликати збій логіки AI, змусити його продати актив за безцінь або прямо показати встановлену нижню межу.
Якщо AI-агент буде зламаний і підписує надзвичайно нерівну угоду, хто нестиме відповідальність? У разі шахрайства між AI — правова порожнеча.
Розглядаючи весь процес Project Deal, важливо врахувати ще один момент — останній крок, що не був описаний у дослідженні: коли AI-агенти уклали всі складні угоди, і людина знову отримала товар, передаючи гроші і підписуючи документи.
У цьому мікроекономічному циклі роль людини і AI повністю змінюється.
Раніше людина була «мозком» бізнесу, а AI — інструментом для порівняння цін, сортування і рекомендацій. Але у «економіці агентів» AI стає головним ухвалювачем рішень, а людина — просто виконавцем, що носить товар і підписує.
Це — найстрашніший сценарій: людство добровільно віддає свої права на торгівлю, довіряючи AI. Всі розрахунки, ігри і навіть емоційна цінність — тепер у руках AI.
Людина залишається лише для фізичного переміщення товарів і підпису.