Мала модель також може виявити вразливості з кібербезпеки, які виявляє детектор Claude Mythos? AISLE: фортеця — у системі, а не в моделі

Кібербезпековий стартап AISLE використовує малу модель із 3,6B параметрів, яка коштує лише 0,11 долара за кожні 1 млн токенів, і відтворює частину ключової демонстрації флагманської кібербезпекової системи Mythos від Anthropic. Межі можливостей ШІ в кібербезпеці є набагато «нерівнішими», ніж ти думаєш.
(Хід подій (передісторія): Коли Anthropic публікує Mythos, це буде момент ядерного вибуху для DeFi?)
(Додатковий контекст: Mythos від Anthropic настільки сильний, що змусив скликати екстрену нараду: Безент, Пауелл скликають Citigroup, Goldman Sachs, Bank of America, а також JPMorgan (великий і малий) — п’ять банків фокусуються на фінансових ризиках)

Зміст

Перемикач

  • Що демонструє Mythos і що відтворює малий модель?
  • Чому більш великі моделі не дорівнюють більш безпечним системам
  • Де знаходиться, а де ні, рівчак (захисний бар’єр)

Цього тижня Anthropic опублікувала ще не публічну модель Claude Mythos Preview і паралельно запустила проєкт Glasswing (скляне крило) — план, сформований 12 технологічними компаніями, зокрема Amazon, Apple, Microsoft, CrowdStrike, Cisco тощо. Вони використовують цю модель для проведення оборонних досліджень у сфері кібербезпеки.

Оскільки, як стверджується, Mythos автономно знаходить тисячі нульдей (zero-day vulnerability — вразливості, які ще не опубліковані, і про які навіть постачальники можуть не знати) в кожній основній операційній системі та браузері, це натякає на нову еру захисту кібербезпеки, керовану ШІ.

Однак уже менш ніж за тиждень, кібербезпековий стартап AISLE, співзасновниками якого є дослідник з DeepMind і дослідник з Anthropic Stanislav Fort, опублікував у корпоративному технічному блозі систематичний звіт.

Ключовий висновок прямий: у флагманському демонстраційному завданні Mythos відкриту малу модель з active параметрами лише 3,6B і вартістю 0,11 долара за 1 млн токенів можна отримати ті самі результати виявлення вразливостей.

Що демонструє Mythos і що відтворює малий модель?

AISLE розробила три набори тестів, кожен з яких відповідає завданням різної складності та характеру.

Перший набір — тести на хибнопозитивні спрацювання для OWASP (Open Web Application Security Project — Відкритий проєкт безпеки вебзастосунків).

Перекладено це означає так: фрагмент Java SQL-коду виглядає як SQL Injection (SQL-ін’єкція, атака на базу даних), але насправді це безпечна логіка. Правильна відповідь — не вразливість.

Результати тестів демонструють майже обернений ефект scaling (масштабування): малий відкритий модель GPT-OSS-20b (3,6B active параметрів, $0.11/M tokens) коректно відстежив логіку програми та визначив, що це нешкідливо.

Натомість Claude Sonnet 4.5, всі серії GPT-4.1/5.4 (окрім o3 та pro), вся лінійка Anthropic аж до Opus 4.5 — усі з упевненістю помилково класифікували як критично небезпечну вразливість. Лише дуже невелика кількість топових моделей — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — дали правильну відповідь.

Другий набір — вразливість FreeBSD NFS, тобто CVE-2026-4747, яку особливо показали в флагманському релізі Mythos — вразливість із 17-річною історією, яка є неавторизованим віддаленим виконанням коду.

Результат: усі 8/8 протестованих моделей успішно виявили вразливість, включно з тим малим модель із 3,6B active параметрів. Усі моделі коректно ідентифікували stack buffer overflow (переповнення стекового буфера), порахували залишкове місце та оцінили як Critical RCE.

Висновок AISLE такий: ця здатність до виявлення вже «зкомерціалізована».

Третій набір — вразливість OpenBSD SACK (історія 27 років), яка потребує справжнього математичного міркування: відстеження багатокрокового ланцюга логіки з переповненням зі знаком (signed integer overflow).

Складність помітно зростає, а поведінка моделей диференціюється. GPT-OSS-120b (5,1B active параметрів) повністю відтворює ланцюг експлойту — AISLE оцінює як A+; відкрита версія Kimi K2 отримує A-; а Qwen3 32B дає помилковий висновок «код є надійним» і отримує оцінку F.

Навіть у цьому складнішому завданні модель з дуже низькою вартістю все одно досягла рівного флагманському системі рівня демонстрації.

Чому більш великі моделі не дорівнюють більш безпечним системам

Справжній аргумент цього звіту — не «малі моделі достатні», а те, що структура можливостей ШІ в кібербезпеці є значно складнішою, ніж уявляє зовнішній світ.

AISLE розкладає кібербезпековий AI-конвеєр на п’ять окремих підзавдань:

  • Широкосмугове сканування (broad scanning)
  • Виявлення вразливостей (vulnerability detection)
  • Розгалужувальна верифікація (triage and validation)
  • Генерація патчів (patch generation)
  • Побудова експлойту (exploit construction)

Кожне підзавдання має різну scaling-спроможність, а отже потребує різних можливостей моделі. Оголошення Mythos інтегрує ці п’ять рівнів в один повний інструмент, але на практиці їхні вимоги до моделей вкрай різняться: деякі підзавдання вже повністю насичуються на 3,6B параметрів, а деяким потрібно складне міркування.

Це перегукується з концепцією «Jagged Frontier» («зубчаста межа»), яку у 2023 році запропонували дослідники Гарвардської бізнес-школи Dell’Acqua та Mollick та інші: межі можливостей ШІ — це не гладка крива, а зазубрений «пилкоподібний» профіль із западинами та виступами; на деяких завданнях ШІ може далеко перевершувати людей, а на сусідніх завданнях — несподівано виявляється крихким.

Дослідження показує, що якщо користувачі розгортають AI у межах своїх можливостей, продуктивність зростає приблизно на 40%; якщо ж необережно виходити за межі — показники натомість знижуються на 19%.

У цьому фреймворку AISLE робить більш прикладне (операційне) припущення: «тисяча достатньо хороших детективів, які всюди шукають, замість одного геніального детектива, який гадатиме, де шукати, здатні знаходити більше вразливостей».

Масове розгортання недорогих моделей для широкосмугового сканування може в цілому дати кращу ефективність, ніж обережне планування одного єдиного дорогого модель. AISLE зазначає, що починаючи з середини 2025 року вони вже виконують систему пошуку вразливостей на реальних цілях: у OpenSSL вони знайшли 15 CVE (з них один одиничний security release містив 12; CVSS 9.8 Critical), у curl — 5, а загалом понад 180 зовнішньо верифікованих CVE у більш ніж 30 репозиторіях проєктів.

Де знаходиться, а де ні, рівчак (захисний бар’єр)

Цей аналіз для Anthropic не є ні повною критикою, ні простою підтримкою.

AISLE прямо заявляє: значення Mythos полягає в тому, щоб довести, що такий клас як «AI в кібербезпеці» є реальним — це не лише концепція з демонстрацій у лабораторії, а система, яка може працювати на реальних цілях. Те, що робить Anthropic, — це максимізація «інтелекту на кожен токен», і це досі має непідмінну цінність у завданнях, що потребують глибоких міркувань.

Але AISLE водночас вказує на проблему, яка є кореневішою для всієї індустрії: рівчак (захисний бар’єр) знаходиться в системі, а не в самій моделі.

У сфері кібербезпеки AISLE вважає, що джерело справжньої диференціації — це архітектурний дизайн, вбудований глибокими фаховими знаннями, наприклад: як розкладати завдання, як планувати на рівні підзавдань моделі з різною вартістю, як підтримувати довіру з боку тих, хто обслуговує (maintainers), у виробничому середовищі.

Системі, яка здатна знаходити в OpenSSL вразливості з CVSS 9.8, і системі, яка в контрольованій демонстрації виявляє відомі патерни вразливостей, потрібно не лише «сильніша модель», а радикально інша інженерна логіка.

Підсумовуючи, звіт AISLE виявив: більш дешеві й більш відкриті моделі вже можуть відтворити частину ключових демонстрацій. Справжня проблема, можливо, не в тому, чия модель найсильніша, а в тому, хто першим пропустить ці п’ять підзавдань через архітектуру, що працює в production-середовищі.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Nvidia інвестуватиме до 2,1 мільярда доларів у компанію IREN для дата-центрів

Згідно з Bloomberg Terminal, Nvidia оголосила в четвер, що інвестує до 2,1 мільярда доларів у розробника центрів обробки даних IREN Ltd. у рамках партнерства для прискорення будівництва інфраструктури для штучного інтелекту. IREN надала Nvidia п’ятирічний варант на придбання до 30 мільйонів sh

GateNews3год тому

CZ заявив, що YZi Labs виділяє 70% на блокчейн і 20% на ШІ на Consensus Miami 2026

За даними ChainCatcher, на Consensus Miami 2026 Чжао Чанпэн (CZ) заявив, що YZi Labs спрямовує 70% фінансування на блокчейн, 20% на AI і 10% на біотехнології. CZ додав, що BNB має бути позиціонована як нативна валюта для AI-агентів, а всі блокчейни мають бути «AI-ready», щоб підтримувати

GateNews8год тому

Публічна компанія придбала AI-інвестиційну платформу Treasury App, щоб розширити криптовалютну торгівлю

Згідно з ChainCatcher, Public оголосила про придбання платформи AI-інвестиційних сервісів Treasury App, щоб посилити свій брокерський бізнес, керований ШІ. Суму угоди не розкрили. Наразі Public підтримує торгівлю акціями, облігаціями та криптовалютами, зокрема Bitcoin, Ethereum, a

GateNews10год тому

Blitzy завершила раунд фінансування $200M під керівництвом Northzone

За даними ChainCatcher, Blitzy — компанія з розробки коду за допомогою ШІ, співзасновником якої є колишній архітектор Nvidia Сід Пардеші, — завершила раунд фінансування на $200 мільйонів, який очолила Northzone. Battery Ventures, Jump Capital і Morgan Creek Digital також взяли участь у раунді. Платформа може аналізувати складні системи з

GateNews11год тому

ЄС забороняє порнографію з дипфейками, створеними за допомогою ШІ, 7 травня

За повідомленням агентства Xinhua News Agency, 7 травня члени Європейського парламенту та держави-члени досягли консенсусу щодо заборони системам штучного інтелекту створювати порно-контент із використанням deepfake. Заборону буде включено до поправок до Закону ЄС про штучний інтелект 2024 року. Європейський парламент

GateNews11год тому

Tether випускає медичну AI-модель QVAC MedPsy та досягає оцінки 62,62 на версії з 17 млрд параметрів

За даними Odaily, Tether AI Research Group випустила QVAC MedPsy — медичну AI-модель, призначену для локального запуску на смартфонах і носимих пристроях без залежності від хмари. Версія на 1,7 мільярда параметрів набрала 62,62 на семи медичних бенчмарках, випередивши MedGemma-1.5-4B від Google на 11,42 poi

GateNews11год тому
Прокоментувати
0/400
Немає коментарів