Сотрудники используют ИИ вредоносными способами. Компании могут оставаться в неведении

Сотрудники используют ИИ во вредоносных целях. Компании могут не замечать этого

Quartz · China News Service via Getty Images

Брайан О’Коннелл

Чт, 26 февраля 2026 г., 19:00 по Гринвичу+9 7 мин чтения

Искусственный интеллект ударил по рабочей силе, словно землетрясение, и все чаще компании сталкиваются с последующими толчками.

Одна из набирающих обороты проблем — рост так называемого «теневого ИИ» (shadow AI), когда сотрудники используют ИИ так, как нельзя, — преднамеренно или нет.

Согласно недавнему исследованию Мельбурнского университета и KPMG, 47% опрошенных специалистов по карьере использовали ИИ на работе неподобающим образом, а 63% говорят, что видели, как другие сотрудники используют ИИ неподобающим образом. В таких случаях фигурирует всё: от использования ИИ для переписки в чатах на внутренних тестах по оценке эффективности работы в компании до передачи чувствительных данных компании в сторонние инструменты ИИ.

Это несет для компаний огромные риски, отмечалось в исследовании.

«Невидимое или теневое использование ИИ не только усугубляет риски — оно также серьезно затрудняет организации возможность выявлять, управлять и снижать риски», — говорится в отчете.

Компании сталкиваются с управляемой ИИ иллюзией компетентности

Эксперты по рабочим местам говорят, что реальный сдвиг с ИИ заключается не в том, что сотрудники вдруг стали нечестными. Сдвиг в том, что ИИ быстро, легко и незаметно находит обходные пути.

«До появления ИИ прятать плохую работу было сложнее», — сказала Захра Тимса, руководитель по управлению ИИ и CEO платформы агентного ИИ для соответствия требованиям i-GENTIC AI. «Теперь сотрудник может за считаные минуты сгенерировать отполированный отчет, а руководители предполагают наличие компетентности. Это создает иллюзию продуктивности».

Например, Тимса приводит случай с сотрудником, который использует ИИ, чтобы генерировать анализ, и уверенно его представляет, но не может защитить его, когда его начинают расспрашивать. «Компания принимает решения на основе работы, которую на самом деле никто до конца не понимает», — добавила Тимса. «Главная угроза не в списывании на тестах. Угроза в том, что компании тихо теряют внутреннюю “интеллектуальность”, одновременно веря, что их команды думают независимо».

Другие известные корпоративные руководители говорят, что данные указывают: компании только сейчас видят кончик айсберга в использовании теневого ИИ. Рассмотрим более полную картину из исследования Мельбурнского университета:

— 44% работников в США используют инструменты ИИ без надлежащего разрешения,

— 46% загрузили в публичные платформы ИИ чувствительную информацию о компании и интеллектуальную собственность, и 64% признают, что стали вкладывать меньше усилий в свою работу, потому что могут опираться на ИИ.

— Более половины, 57%, допускают ошибки в своей работе из-за неконтролируемого использования ИИ, а 53% полностью скрывают свое использование ИИ, представляя сгенерированный ИИ контент как собственный.

«Дело не только в том, что люди выдают ИИ за свою работу; они еще и “портят” корпоративную среду, полагаясь на ИИ-муру», — заявил Ник Мизнер, COO кибербезопасностной компании Cybrary, базирующейся в Атланте, платформе развития в сфере кибербезопасности. «Хотя ИИ ускоряет скорость, с которой мы можем писать код, он также вносит в организацию больше долгов и уязвимостей безопасности».

История продолжается  

Мизнер отмечает, что это не изолированный тренд; напротив, это системный сбой организационной готовности.

«Мы видим, как внедрение ИИ массово обгоняет управление», — сказал он. «Отчет Gallup о состоянии глобального рабочего места показывает нам, что 79% мировой рабочей силы находится где-то между “выполнением минимума” и “активно отключенными/отстраненными”».

Поэтому, когда вы даете отстраненным сотрудникам мощный инструмент без значимого руководства, они не будут использовать его, чтобы стать продуктивнее. «Они будут использовать его, чтобы делать ту же работу с меньшими усилиями или, что хуже, срезать углы так, чтобы создавать реальный организационный риск», — отметил он.

Угроза — это не только списывание на тестах, хотя в одном из случаев по линии KPMG Australia, о котором сообщалось на этой неделе: 28 сотрудников были пойманы на использовании ИИ для списывания на внутренних экзаменах, включая партнера, оштрафованного на $10,000 за списывание на экзамене по этике ИИ.

«Этот пример отлично иллюстрирует иронию», — сказал Мизнер. «Главная угроза в том, что организации летят вслепую. Если почти половина вашей рабочей силы использует ИИ неподобающим образом и вы даже не знаете об этом, то ваш риск огромен — от утечек данных до нарушений комплаенса и до деградации тех навыков, которые вашим людям действительно нужны».

Убираем вредоносное использование ИИ из тени

Руководству компании (C-suite) следует активнее предлагать решения, внедрять политики и вводить санкции, чтобы обеспечить этичное использование ИИ в их компаниях. Эти стратегии должны быть в верхней части списка их приоритетов.

Учитесь на прошлом

Есть весомый аргумент, что цифры Мельбурнского университета/KPMG не уникальны для ИИ.

«Мы видели похожие модели, когда интернет и поисковые системы впервые пришли на рабочие места», — сказал Джо Шаппи, сооснователь компании Solsten, компании из Миннеаполиса (штат Миннесота), занимающейся вовлечением пользователей на базе ИИ. «Когда появляется мощный новый инструмент, злоупотребления неизбежны; такова человеческая природа».

По мере роста внедрения ИИ, Шаппи сказал, руководство, вероятно, будет видеть больше экспериментов и поведения в “серой зоне”, но, как и со всеми технологиями, управление и ограничители будут развиваться. «Такие компании, как Anthropic, уже применяют более ориентированный на предприятия подход: они вводят правила и ограничения, чтобы снижать риск по мере того, как технология созревает», — отметил он. «Если вы — компания и видите неподобающее поведение с любым инструментом, то обеспокоенность должна быть направлена на культуру и то, как вы обеспечиваете соблюдение политик и процедур».

Делайте ставку на человеческий надзор

Чтобы держать под контролем взаимодействие с рабочим ИИ, руководству необходимо поручить команде по анализу ИИ проверку доступа компании к данным и прав на любые типы данных, которые имеют первостепенное значение для будущего бизнеса.

«Далее, синтетические наборы данных — это не что-то новое, и это отличный способ все так же моделировать результаты, используя ваши данные», — сказал он. «Кроме того, я бы всегда вовлекал человека в контур до того, как что-либо пойдет в “живую” работу. Несколько компаний все еще находили, что числа в отчетах по ИИ ошибочны. Независимо от того, речь о том, чтобы сообщения оставались в фирменном стиле или были уместными, важно держать человека в контуре».

Четко и ясно обозначьте правила использования ИИ

Компании также должны предоставлять одобренные внутренние инструменты ИИ и установить одно четкое правило. Никогда не вводите конфиденциальную или регулируемую информацию в публичные системы ИИ.

«Они также должны отслеживать, куда течет чувствительная информация, особенно копирование-вставка в инструменты ИИ, которое сейчас является большой “слепой зоной” для большинства компаний, и которую они полностью упускают», — сказала Тимса. «Самое важное: компаниям нужно изменить то, как они оценивают сотрудников».

Тимса также призывает лидеров компаний не ограничиваться поощрением только “отполированного” результата. «Требуйте от сотрудников объяснять свою логику и демонстрировать понимание», — сказала она. «ИИ может генерировать ответы, но он не может заменить собственность или ответственность».

Первой политикой, которую команда Тимсы внедрила в i-GENTIC, было простое и ясное правило: сотрудники могли использовать одобренные инструменты ИИ, но не могли вводить конфиденциальную, клиентскую, финансовую или принадлежащую компании (proprietary) информацию в публичные системы ИИ.

«Мы сосредоточились на ясности, а не на ограничениях», — отметила она. «Это создало доверие, потому что сотрудник знал: использование ИИ разрешено, но в пределах четких границ. Это также укрепило ответственность, потому что все понимали, что безопасно, а что нет».

Внутреннее обучение компании должно быть сосредоточено на практических примерах, а не на расплывчатых политиках, которые никто не читает. Сотрудники должны четко понимать, что безопасно, а что нет.

«Использовать ИИ, чтобы перезаписать общее (generic) электронное письмо — это нормально», — сказала Тимса. «Загружать в публичный инструмент ИИ договоры с клиентами, финансовые данные или принадлежащую компании информацию — нет. Использовать ИИ, чтобы накидать идеи — можно. Но представлять сгенерированный ИИ анализ, который вы не понимаете, как свою собственную работу — нельзя».

Когда обращаться за помощью к внешнему обеспечению соблюдения требований помощь

Неправильное использование ИИ сотрудником становится юридическим вопросом, когда есть намерение и вред.

«Это включает утечку конфиденциальных данных, кражу интеллектуальной собственности, манипулирование финансовой информацией или совершение мошенничества с помощью ИИ», — отметила Тимса. «На этом этапе компании могут подключать следователей, регуляторов или правоохранительные органы».

Решаюшим лицам компании также следует понимать, что большинство случаев злоупотреблений начинается как удобство, а не как злонамеренное намерение, но как только это приводит к реальному вреду, финансовым рискам или обману, дело выходит за рамки “просто дисциплины” и переходит в юридическую плоскость. «Ключевое различие — привело ли злоупотребление к раскрытию, потере или намеренному сокрытию», — добавила Тимса.

В заключение: сосредоточьтесь на обучении

Эксперты говорят, что важно отметить: организации должны относиться к использованию ИИ как к любому другому поведению с высоким риском и обучать сотрудников тому, как применять его безопасно.

Кроме того, обучая сотрудников использованию ИИ, руководству нужно дать им понять, что использование ИИ не снимает с них ответственности.

«Сотрудники по-прежнему несут ответственность за то, чтобы информация, которую они загружают на платформы ИИ, была точной и не нарушала никаких законов», — сказал Келси Сзамет, партнер Kingsley Szamet Employment Lawyers. «Сотрудникам также следует знать, что загрузка конфиденциальной и принадлежащей компании информации на платформы ИИ может привести к тому, что такая информация будет навсегда раскрыта на платформе».

С точки зрения трудовых отношений ключевым является последовательность. Если одного сотрудника увольняют за злоупотребление ИИ, а другого — нет, это создает проблемы с ответственностью за дискриминацию и ответными действиями. «Чем более сильная политика и процесс обучения уже существуют, тем меньше риск судебных разбирательств», — сказал Сзамет.

Главная проблема — не в том, что сотрудники будут использовать ИИ. Они будут. «Беспокойство в том, что компании отреагируют на это до того, как это станет проблемой», — добавил Сзамет.

Условия и политика конфиденциальности

Панель управления конфиденциальностью

Подробнее

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить