Штучні галюцинації (hallucination) досі залишаються однією з найболючіших проблем для великих мовних моделей (LLM), але професор Вартонської школи бізнесу Итан Моллік (Ethan Mollick) в X висунув цікаву точку зору: люди вже сотні років тому розробили зрілі механізми, здатні забезпечувати надійний результат із ненадійних джерел — той механізм називається «організаційні структури» (organizational structures), і ми цілком можемо застосувати подібний підхід до AI. Цей допис у X зібрав 329 лайків, 35 репостів і 44 відповіді, започаткувавши глибоку дискусію про те, як практично протидіяти галюцинаціям у AI.
Що таке аналогія «організаційні структури»?
Ключовий аргумент Молліка прямо вказує на факт, який часто ігнорують: люди ніколи не були ідеально надійним джерелом інформації. Історично, чи то бухгалтерські книги, медичні діагнози або судові рішення — вихідні дані людини завжди несуть ризик помилок. Однак цивілізація нормально функціонує тому, що ми розробили цілу низку «організаційних структур» для контролю цих ризиків.
По суті, ці організаційні структури — це точна «машина для перехоплення помилок»: через розподіл обов’язків, ієрархічні перевірки, перехресну верифікацію та інституціоналізовані процеси ненадійність окремих людей перетворюється на надійність рівня системи. На думку Молліка, замість того щоб зациклюватися на прагненні до «AI, який ніколи не помиляється», варто змінити підхід — так само, як ми працюємо з людськими працівниками, побудувати для AI організовану систему контролю якості.
Конкретні способи застосування: перевірка, тестування та перехресна верифікація
У подальших обговореннях, які спричинив цей допис, Моллік та інші учасники розглянули кілька конкретних методів, які можна напряму запозичити з організаційного менеджменту. Перший — «механізм перевірки» (reviews): як керівник або відбір колег у компанії, він дозволяє іншій моделі AI або людському експерту системно перевірити вихідні дані LLM.
Другий — «механізм тестування» (tests): подібно до модульних тестів і процесів гарантування якості у розробці програмного забезпечення, він встановлює для кожного результату AI вимірювані стандарти, які можна перевірити. Третій — «перехресні перевірки» (cross-checks): кілька незалежних моделей AI або джерел інформації відповідають на одне й те саме питання, після чого порівнюється узгодженість результатів — так само, як у організації різні відділи здійснюють взаємні стримування й противаги.
Спільна логіка цих підходів така: не покладатися на бездоганність одного вузла, а знижувати загальну частоту помилок через системне проєктування. Це перегукується з ідеєю з сучасної теорії управління якістю «швейцарської сирної моделі» (Swiss Cheese Model): кожен рівень захисту має проломи, але в разі багатошаровості ймовірність того, що помилка «пройде» крізь усі рівні, суттєво знижується.
Уроки для впровадження AI в компаніях
Ця мисленнєва рамка від Молліка особливо корисна компаніям, які впроваджують AI. Багато компаній, стикаючись із проблемою галюцинацій у AI, зазвичай потрапляють у дві крайнощі: або, боячись помилок, вони взагалі не наважуються використовувати AI, або надмірно довіряють вихідним даним AI й ігнорують перевірку. Мислення про організаційний дизайн прокладає проміжний шлях — визнати, що AI може помилятися, але контролювати помилки в межах прийнятного завдяки механізмам на рівні інституцій.
Зокрема, компанії можуть створити «процес управління якістю AI»: розглядати AI як працівника в організації, забезпечити його механізмами перевірки, чітко окреслити межі відповідальності, розгорнути систему виявлення відхилень і на ключових етапах прийняття рішень залишити можливість людського повторного перегляду. Такий підхід не лише більш практичний, а й краще узгоджується з управлінською логікою, яку компанії вже добре знають. Для індустрії AI позиція Молліка нагадує нам: відповідь на питання, як вирішити галюцинації в AI, може полягати не лише на технічному рівні, а й у переосмисленні організаційної структури взаємодії людини та машини.
Ця стаття «Професор Вартонської школи бізнесу Итан Моллік: розв’язання проблеми галюцинацій у AI за допомогою мислення “організаційного дизайну”» вперше з’явилася на «Ланцюгові новини ABMedia».