Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Сотрудники используют ИИ вредоносными способами. Компании могут оставаться в неведении
Сотрудники используют ИИ во вредоносных целях. Компании могут не замечать этого
Quartz · China News Service via Getty Images
Брайан О’Коннелл
Чт, 26 февраля 2026 г., 19:00 по Гринвичу+9 7 мин чтения
Искусственный интеллект ударил по рабочей силе, словно землетрясение, и все чаще компании сталкиваются с последующими толчками.
Одна из набирающих обороты проблем — рост так называемого «теневого ИИ» (shadow AI), когда сотрудники используют ИИ так, как нельзя, — преднамеренно или нет.
Согласно недавнему исследованию Мельбурнского университета и KPMG, 47% опрошенных специалистов по карьере использовали ИИ на работе неподобающим образом, а 63% говорят, что видели, как другие сотрудники используют ИИ неподобающим образом. В таких случаях фигурирует всё: от использования ИИ для переписки в чатах на внутренних тестах по оценке эффективности работы в компании до передачи чувствительных данных компании в сторонние инструменты ИИ.
Это несет для компаний огромные риски, отмечалось в исследовании.
«Невидимое или теневое использование ИИ не только усугубляет риски — оно также серьезно затрудняет организации возможность выявлять, управлять и снижать риски», — говорится в отчете.
Компании сталкиваются с управляемой ИИ иллюзией компетентности
Эксперты по рабочим местам говорят, что реальный сдвиг с ИИ заключается не в том, что сотрудники вдруг стали нечестными. Сдвиг в том, что ИИ быстро, легко и незаметно находит обходные пути.
«До появления ИИ прятать плохую работу было сложнее», — сказала Захра Тимса, руководитель по управлению ИИ и CEO платформы агентного ИИ для соответствия требованиям i-GENTIC AI. «Теперь сотрудник может за считаные минуты сгенерировать отполированный отчет, а руководители предполагают наличие компетентности. Это создает иллюзию продуктивности».
Например, Тимса приводит случай с сотрудником, который использует ИИ, чтобы генерировать анализ, и уверенно его представляет, но не может защитить его, когда его начинают расспрашивать. «Компания принимает решения на основе работы, которую на самом деле никто до конца не понимает», — добавила Тимса. «Главная угроза не в списывании на тестах. Угроза в том, что компании тихо теряют внутреннюю “интеллектуальность”, одновременно веря, что их команды думают независимо».
Другие известные корпоративные руководители говорят, что данные указывают: компании только сейчас видят кончик айсберга в использовании теневого ИИ. Рассмотрим более полную картину из исследования Мельбурнского университета:
— 44% работников в США используют инструменты ИИ без надлежащего разрешения,
— 46% загрузили в публичные платформы ИИ чувствительную информацию о компании и интеллектуальную собственность, и 64% признают, что стали вкладывать меньше усилий в свою работу, потому что могут опираться на ИИ.
— Более половины, 57%, допускают ошибки в своей работе из-за неконтролируемого использования ИИ, а 53% полностью скрывают свое использование ИИ, представляя сгенерированный ИИ контент как собственный.
«Дело не только в том, что люди выдают ИИ за свою работу; они еще и “портят” корпоративную среду, полагаясь на ИИ-муру», — заявил Ник Мизнер, COO кибербезопасностной компании Cybrary, базирующейся в Атланте, платформе развития в сфере кибербезопасности. «Хотя ИИ ускоряет скорость, с которой мы можем писать код, он также вносит в организацию больше долгов и уязвимостей безопасности».
Мизнер отмечает, что это не изолированный тренд; напротив, это системный сбой организационной готовности.
«Мы видим, как внедрение ИИ массово обгоняет управление», — сказал он. «Отчет Gallup о состоянии глобального рабочего места показывает нам, что 79% мировой рабочей силы находится где-то между “выполнением минимума” и “активно отключенными/отстраненными”».
Поэтому, когда вы даете отстраненным сотрудникам мощный инструмент без значимого руководства, они не будут использовать его, чтобы стать продуктивнее. «Они будут использовать его, чтобы делать ту же работу с меньшими усилиями или, что хуже, срезать углы так, чтобы создавать реальный организационный риск», — отметил он.
Угроза — это не только списывание на тестах, хотя в одном из случаев по линии KPMG Australia, о котором сообщалось на этой неделе: 28 сотрудников были пойманы на использовании ИИ для списывания на внутренних экзаменах, включая партнера, оштрафованного на $10,000 за списывание на экзамене по этике ИИ.
«Этот пример отлично иллюстрирует иронию», — сказал Мизнер. «Главная угроза в том, что организации летят вслепую. Если почти половина вашей рабочей силы использует ИИ неподобающим образом и вы даже не знаете об этом, то ваш риск огромен — от утечек данных до нарушений комплаенса и до деградации тех навыков, которые вашим людям действительно нужны».
Убираем вредоносное использование ИИ из тени
Руководству компании (C-suite) следует активнее предлагать решения, внедрять политики и вводить санкции, чтобы обеспечить этичное использование ИИ в их компаниях. Эти стратегии должны быть в верхней части списка их приоритетов.
Учитесь на прошлом
Есть весомый аргумент, что цифры Мельбурнского университета/KPMG не уникальны для ИИ.
«Мы видели похожие модели, когда интернет и поисковые системы впервые пришли на рабочие места», — сказал Джо Шаппи, сооснователь компании Solsten, компании из Миннеаполиса (штат Миннесота), занимающейся вовлечением пользователей на базе ИИ. «Когда появляется мощный новый инструмент, злоупотребления неизбежны; такова человеческая природа».
По мере роста внедрения ИИ, Шаппи сказал, руководство, вероятно, будет видеть больше экспериментов и поведения в “серой зоне”, но, как и со всеми технологиями, управление и ограничители будут развиваться. «Такие компании, как Anthropic, уже применяют более ориентированный на предприятия подход: они вводят правила и ограничения, чтобы снижать риск по мере того, как технология созревает», — отметил он. «Если вы — компания и видите неподобающее поведение с любым инструментом, то обеспокоенность должна быть направлена на культуру и то, как вы обеспечиваете соблюдение политик и процедур».
Делайте ставку на человеческий надзор
Чтобы держать под контролем взаимодействие с рабочим ИИ, руководству необходимо поручить команде по анализу ИИ проверку доступа компании к данным и прав на любые типы данных, которые имеют первостепенное значение для будущего бизнеса.
«Далее, синтетические наборы данных — это не что-то новое, и это отличный способ все так же моделировать результаты, используя ваши данные», — сказал он. «Кроме того, я бы всегда вовлекал человека в контур до того, как что-либо пойдет в “живую” работу. Несколько компаний все еще находили, что числа в отчетах по ИИ ошибочны. Независимо от того, речь о том, чтобы сообщения оставались в фирменном стиле или были уместными, важно держать человека в контуре».
Четко и ясно обозначьте правила использования ИИ
Компании также должны предоставлять одобренные внутренние инструменты ИИ и установить одно четкое правило. Никогда не вводите конфиденциальную или регулируемую информацию в публичные системы ИИ.
«Они также должны отслеживать, куда течет чувствительная информация, особенно копирование-вставка в инструменты ИИ, которое сейчас является большой “слепой зоной” для большинства компаний, и которую они полностью упускают», — сказала Тимса. «Самое важное: компаниям нужно изменить то, как они оценивают сотрудников».
Тимса также призывает лидеров компаний не ограничиваться поощрением только “отполированного” результата. «Требуйте от сотрудников объяснять свою логику и демонстрировать понимание», — сказала она. «ИИ может генерировать ответы, но он не может заменить собственность или ответственность».
Первой политикой, которую команда Тимсы внедрила в i-GENTIC, было простое и ясное правило: сотрудники могли использовать одобренные инструменты ИИ, но не могли вводить конфиденциальную, клиентскую, финансовую или принадлежащую компании (proprietary) информацию в публичные системы ИИ.
«Мы сосредоточились на ясности, а не на ограничениях», — отметила она. «Это создало доверие, потому что сотрудник знал: использование ИИ разрешено, но в пределах четких границ. Это также укрепило ответственность, потому что все понимали, что безопасно, а что нет».
Внутреннее обучение компании должно быть сосредоточено на практических примерах, а не на расплывчатых политиках, которые никто не читает. Сотрудники должны четко понимать, что безопасно, а что нет.
«Использовать ИИ, чтобы перезаписать общее (generic) электронное письмо — это нормально», — сказала Тимса. «Загружать в публичный инструмент ИИ договоры с клиентами, финансовые данные или принадлежащую компании информацию — нет. Использовать ИИ, чтобы накидать идеи — можно. Но представлять сгенерированный ИИ анализ, который вы не понимаете, как свою собственную работу — нельзя».
Когда обращаться за помощью к внешнему обеспечению соблюдения требований помощь
Неправильное использование ИИ сотрудником становится юридическим вопросом, когда есть намерение и вред.
«Это включает утечку конфиденциальных данных, кражу интеллектуальной собственности, манипулирование финансовой информацией или совершение мошенничества с помощью ИИ», — отметила Тимса. «На этом этапе компании могут подключать следователей, регуляторов или правоохранительные органы».
Решаюшим лицам компании также следует понимать, что большинство случаев злоупотреблений начинается как удобство, а не как злонамеренное намерение, но как только это приводит к реальному вреду, финансовым рискам или обману, дело выходит за рамки “просто дисциплины” и переходит в юридическую плоскость. «Ключевое различие — привело ли злоупотребление к раскрытию, потере или намеренному сокрытию», — добавила Тимса.
В заключение: сосредоточьтесь на обучении
Эксперты говорят, что важно отметить: организации должны относиться к использованию ИИ как к любому другому поведению с высоким риском и обучать сотрудников тому, как применять его безопасно.
Кроме того, обучая сотрудников использованию ИИ, руководству нужно дать им понять, что использование ИИ не снимает с них ответственности.
«Сотрудники по-прежнему несут ответственность за то, чтобы информация, которую они загружают на платформы ИИ, была точной и не нарушала никаких законов», — сказал Келси Сзамет, партнер Kingsley Szamet Employment Lawyers. «Сотрудникам также следует знать, что загрузка конфиденциальной и принадлежащей компании информации на платформы ИИ может привести к тому, что такая информация будет навсегда раскрыта на платформе».
С точки зрения трудовых отношений ключевым является последовательность. Если одного сотрудника увольняют за злоупотребление ИИ, а другого — нет, это создает проблемы с ответственностью за дискриминацию и ответными действиями. «Чем более сильная политика и процесс обучения уже существуют, тем меньше риск судебных разбирательств», — сказал Сзамет.
Главная проблема — не в том, что сотрудники будут использовать ИИ. Они будут. «Беспокойство в том, что компании отреагируют на это до того, как это станет проблемой», — добавил Сзамет.
Условия и политика конфиденциальности
Панель управления конфиденциальностью
Подробнее