 従業員が有害な形でAIを利用している。企業は暗闇の中にいるかもしれない====================================================================  Quartz ・ China News Service via Getty Images Brian O'Connell Thu, February 26, 2026 at 7:00 PM GMT+9 7 min read 人工知能は地震のように労働現場にまで到達し、ますます、企業は余震への対応に追われています。 新たに大きくなっている問題の一つは、いわゆる「シャドーAI」の拡大です。これは、意図せずであっても、あるいは意図的であっても、従業員が本来すべきでない形でAIを使うことです。 メルボルン大学とKPMGによる最近の調査によると、調査対象となったキャリアの専門職の47%が職務上不適切にAIを使用したことがあり、63%が他のスタッフが不適切にAIを使っているのを見たと言っています。こうしたケースはさまざまで、社内の業績評価テストでAIをチャットとして使うことから、機密性の高い企業データを第三者のAIツールに投入することまで含まれます。 そうした行為は、企業にとって重大なリスクをもたらすと、調査は指摘しています。 「この見えない、あるいはシャドーAIの利用は、リスクを悪化させるだけではありません。リスクを検知し、管理し、そして軽減する組織の能力を、深刻に阻害するのです」と報告書は述べています。 企業はAI主導の“有能さの錯覚”に直面している-------------------------------------------------- 職場の専門家によれば、AIに伴う本当の変化は、従業員が突然不正直になったことではありません。変化は、AIが近道を速く、容易に、そして見えない形で実行してしまうことです。 「AIの前は、できの悪い仕事を隠すのは難しかったのです」と、AIガバナンスのリーダーであり、エージェント型AIコンプライアンス・プラットフォームのi-GENTIC AIのCEOであるZahra Timsahは語りました。「今では、従業員は数分で洗練されたレポートを作れてしまい、マネージャーは有能だと思い込むのです。これが、生産性の錯覚を生みます。」 たとえばTimsahは、AIを使って分析を生成し、自信を持って提示する従業員を挙げますが、質問されるとそれを弁明できないのです。「会社は、本当には誰も理解していない仕事に基づいて判断します」とTimsahは付け加えました。「最大の脅威はテストでの不正ではありません。むしろ、チームが独立して考えていると信じながら、社内の知性が静かに失われていくことです。」 他の著名な企業幹部も、データはシャドーAIの利用について企業が“氷山の一角”をようやく見え始めていることを示していると言っています。メルボルンの調査から、より全体像を考えてみましょう: --- 米国の労働者の44%が、適切な許可なしにAIツールを使用しています、 --- 46%が、機密性の高い企業情報および知的財産を一般公開されたAIプラットフォームにアップロードしており、64%がAIに頼れるため仕事への取り組みを減らしていると認めています。 --- 半数超、57%が、チェックされないAI利用のせいで仕事でミスをしており、53%がAI利用を完全に隠して、AIが生成したコンテンツを自分のものとして提示しています。 「人々がAIを自分の仕事として横流ししているだけではありません。AIの“粗悪な成果物”に頼ることで、企業の土台そのものを毒しているのです」と、アトランタ拠点のサイバーセキュリティの人材開発プラットフォームCybraryのCOOであるNick Misnerは述べています。「AIは私たちがコードを書く速度を加速させますが、その一方で、組織により多くの負債とセキュリティ上の脆弱性を持ち込んでいます。」 物語は続く Misnerは、これは孤立した傾向ではないと指摘します。代わりに、組織としての準備が体系的に失敗しているのだと言います。 「私たちは、AIの導入がガバナンスを大幅に上回って進んでいるのを見ています」と彼は言いました。「Gallupの『State of the Global Workplace』レポートは、世界の労働力の79%が『最低限やっている』から『積極的に職務から離脱している』の間のどこかにいることを示しています。」 その結果、意味のあるガイダンスなしに、職務から離脱した労働者に強力なツールを渡してしまえば、生産性を上げるために使うとは限りません。「同じ仕事をより少ない労力で行うために使うでしょうし、さらに悪い場合には、本当の意味での組織リスクを生むような近道をするために使うことになります」と彼は指摘しました。 脅威はテストでの不正だけの話ではありません。今週報じられたKPMG Australiaの事例では、28人の従業員がAIを使って社内試験の不正をしているところを捕まっており、AI倫理試験の不正でパートナーが$10,000の罰金を科されたことまで含まれます。 「その例は皮肉を完璧に示しています」とMisnerは言いました。「より大きな脅威は、組織が手探りで飛んでいることです。もし労働力のほぼ半分が不適切にAIを使っているのに、それすら分かっていないなら、リスクの露出は非常に大きくなります。データ漏えいからコンプライアンス違反、そして、実際にあなたの人々が必要としているスキルの侵食までです。」 邪悪なAI利用を“影”から取り出す-------------------------------------------- Cスイート(経営幹部)は、AIが自社で倫理的に使われていることを確実にするために、提案、方針、そして罰則を打ち出す必要があります。これらの戦略は最優先事項としてリストの上位に置かれるべきです。 ### **過去から学ぶ** メルボルン/KPMGの数字がAIに特有のものではない、という主張には十分な根拠があります。 「私たちは、インターネットや検索エンジンが職場に最初に登場したときも、似たパターンを見ました」と、ミネアポリスのAIベースのユーザーエンゲージメント企業Solstenの共同創業者であるJoe Schaeppiは述べました。「強力な新しいツールが現れるたびに、誤用は避けられません。それは人間の本性です。」 AIの導入が広がるにつれ、Schaeppiは、マネジメントはより多くの試行錯誤やグレーゾーンの行動を目にすることになる可能性が高いと語りましたが、すべての技術と同様に、ガバナンスやガードレールも進化します。「Anthropicのような企業は、テクノロジーが成熟するにつれてリスクを減らすためのルールや制約を組み込み、すでによりエンタープライズ重視のアプローチを取っています」と彼は述べました。「もしどんなツールでも不適切な行動が見られるなら、その懸念は文化と、どのように方針や手順を徹底しているかに置くべきです。」 ### **人による監督に寄り添う** 職場でのAI活用を制御下に置くためには、マネジメントは、企業の将来にとって特に重要なあらゆるデータ種別について、会社のデータアクセスと権限を見直すために、AI分析チームを任務として組ませなければなりません。 「次に、合成データセットは何も新しい話ではなく、データを活用しながらアウトカムをなおもモデル化できる優れた方法です」と彼は言いました。「また、何かが本番に出る前に、必ず人が介在することを私は勧めます。複数の企業が、AIのレポート数値が間違っていることをまだ見つけています。メッセージがブランドに合っているか、適切かを確かめるにしても、人が介在することが重要です。」 ### **AI利用ルールを明確にする** 企業は、承認済みの社内AIツールも提示し、そして1つの明確なルールを設定すべきです。機密情報や規制対象の情報を、公開されているAIシステムに絶対に入れないでください。 「また、機密性の高いデータがどこへ流れているか、とくにAIツールへのコピペが起きていないかを監視すべきです。これはいまや、多くの企業がまったく見落としてしまう主要な“盲点”になっています」とTimsahは言いました。「最も重要なのは、企業が従業員をどう評価するかを変えなければならないということです。 」 Timsahは、企業のリーダーに対し、洗練された出力物だけを報酬対象にしないよう促してもいます。「従業員には、自分の推論を説明させ、理解していることを示させることが必要です」と彼女は言いました。「AIは答えを生成できますが、所有(オーナーシップ)や説明責任を代替することはできません。」 i-GENTICでTimsahのチームが最初に実装した方針は、シンプルで明確でした。従業員は承認済みのAIツールを使ってよいが、機密情報、クライアント情報、財務情報、または独自情報を公開AIシステムに入力してはならない、というものです。 「私たちは“制限”ではなく“明確さ”に焦点を当てました」と彼女は指摘しました。「従業員はAI利用が許可されていることを、しかし明確な境界があることも理解していたので、信頼が生まれました。さらに、それが何が安全で、何がそうでないのかを全員が理解していたため、説明責任も構築できました。」 社内研修の中身は、誰も読まないような曖昧な方針ではなく、実践的な例に焦点を当てるべきです。従業員は、何が安全で、何が安全でないのかをはっきり理解する必要があります。 「一般的なメールを書き換えるためにAIを使うのは問題ありません」とTimsahは言いました。「クライアントの契約書、財務データ、または独自情報を公開AIツールにアップロードするのは問題です。アイデアをブレインストーミングするためにAIを使うのは問題ありません。自分が理解していないAIが生成した分析を、自分の仕事として提示するのは問題です。」 ### **社外の強制執行の支援を得るべきタイミング** 従業員によるAIの誤用は、意図と害がある場合に法的な問題になります。 「これには、機密データの漏えい、知的財産の盗用、金融情報の操作、またはAI支援による詐欺の実行が含まれます」とTimsahは述べました。「その時点で、企業は調査担当者、規制当局、あるいは法執行機関を関与させる可能性があります。」 企業の意思決定者は、ほとんどの誤用は悪意の意図から始まるというより、利便性から始まることも知っておくべきです。しかし、それが実際の害、金銭的な露出、あるいは欺きにつながると、法的領域に踏み込みます。「重要な違いは、その誤用が露出、損失、または意図的な隠蔽を生んだかどうかです」とTimsahは付け加えました。 **最後に、研修に注力する**----------------------------- 専門家は、組織がAI利用を他のあらゆる高リスク行動と同様に扱い、従業員に安全な使い方を教育することが重要だと述べています。 さらに、従業員にAI利用を教育する際、マネジメントは、AIを使ったとしても自分は免責されるわけではないことを理解させなければなりません。 「従業員は、AIプラットフォームにアップロードする情報が正確であり、いかなる法律にも違反していないことを確保する責任があります」とKingsley Szamet Employment LawyersのパートナーであるKelsey Szametは言いました。「また、従業員は、機密情報や独自情報をAIプラットフォームにアップロードすると、そのような情報がプラットフォーム上で恒久的に公開される結果になり得ることも認識すべきです。」 雇用の観点では、一貫性が鍵です。もしある従業員がAIの誤用で解雇され、別の従業員は解雇されない場合、それが差別や報復(リタリエーション)に関する責任問題を生みます。「整備されたより強い方針と研修プロセスがあるほど、訴訟のリスクは低くなります」とSzametは述べました。 より大きな懸念は、従業員がAIを使うかどうかではありません。彼らは使います。「懸念は、AIが問題になる前に、企業がそれにどう対処するかです」とSzametは付け加えました。 規約 とプライバシーポリシー プライバシーダッシュボード さらに詳しく
従業員がAIを有害な方法で使用しています。企業は状況を把握していない可能性があります
従業員が有害な形でAIを利用している。企業は暗闇の中にいるかもしれない
Quartz ・ China News Service via Getty Images
Brian O’Connell
Thu, February 26, 2026 at 7:00 PM GMT+9 7 min read
人工知能は地震のように労働現場にまで到達し、ますます、企業は余震への対応に追われています。
新たに大きくなっている問題の一つは、いわゆる「シャドーAI」の拡大です。これは、意図せずであっても、あるいは意図的であっても、従業員が本来すべきでない形でAIを使うことです。
メルボルン大学とKPMGによる最近の調査によると、調査対象となったキャリアの専門職の47%が職務上不適切にAIを使用したことがあり、63%が他のスタッフが不適切にAIを使っているのを見たと言っています。こうしたケースはさまざまで、社内の業績評価テストでAIをチャットとして使うことから、機密性の高い企業データを第三者のAIツールに投入することまで含まれます。
そうした行為は、企業にとって重大なリスクをもたらすと、調査は指摘しています。
「この見えない、あるいはシャドーAIの利用は、リスクを悪化させるだけではありません。リスクを検知し、管理し、そして軽減する組織の能力を、深刻に阻害するのです」と報告書は述べています。
企業はAI主導の“有能さの錯覚”に直面している
職場の専門家によれば、AIに伴う本当の変化は、従業員が突然不正直になったことではありません。変化は、AIが近道を速く、容易に、そして見えない形で実行してしまうことです。
「AIの前は、できの悪い仕事を隠すのは難しかったのです」と、AIガバナンスのリーダーであり、エージェント型AIコンプライアンス・プラットフォームのi-GENTIC AIのCEOであるZahra Timsahは語りました。「今では、従業員は数分で洗練されたレポートを作れてしまい、マネージャーは有能だと思い込むのです。これが、生産性の錯覚を生みます。」
たとえばTimsahは、AIを使って分析を生成し、自信を持って提示する従業員を挙げますが、質問されるとそれを弁明できないのです。「会社は、本当には誰も理解していない仕事に基づいて判断します」とTimsahは付け加えました。「最大の脅威はテストでの不正ではありません。むしろ、チームが独立して考えていると信じながら、社内の知性が静かに失われていくことです。」
他の著名な企業幹部も、データはシャドーAIの利用について企業が“氷山の一角”をようやく見え始めていることを示していると言っています。メルボルンの調査から、より全体像を考えてみましょう:
— 米国の労働者の44%が、適切な許可なしにAIツールを使用しています、
— 46%が、機密性の高い企業情報および知的財産を一般公開されたAIプラットフォームにアップロードしており、64%がAIに頼れるため仕事への取り組みを減らしていると認めています。
— 半数超、57%が、チェックされないAI利用のせいで仕事でミスをしており、53%がAI利用を完全に隠して、AIが生成したコンテンツを自分のものとして提示しています。
「人々がAIを自分の仕事として横流ししているだけではありません。AIの“粗悪な成果物”に頼ることで、企業の土台そのものを毒しているのです」と、アトランタ拠点のサイバーセキュリティの人材開発プラットフォームCybraryのCOOであるNick Misnerは述べています。「AIは私たちがコードを書く速度を加速させますが、その一方で、組織により多くの負債とセキュリティ上の脆弱性を持ち込んでいます。」
Misnerは、これは孤立した傾向ではないと指摘します。代わりに、組織としての準備が体系的に失敗しているのだと言います。
「私たちは、AIの導入がガバナンスを大幅に上回って進んでいるのを見ています」と彼は言いました。「Gallupの『State of the Global Workplace』レポートは、世界の労働力の79%が『最低限やっている』から『積極的に職務から離脱している』の間のどこかにいることを示しています。」
その結果、意味のあるガイダンスなしに、職務から離脱した労働者に強力なツールを渡してしまえば、生産性を上げるために使うとは限りません。「同じ仕事をより少ない労力で行うために使うでしょうし、さらに悪い場合には、本当の意味での組織リスクを生むような近道をするために使うことになります」と彼は指摘しました。
脅威はテストでの不正だけの話ではありません。今週報じられたKPMG Australiaの事例では、28人の従業員がAIを使って社内試験の不正をしているところを捕まっており、AI倫理試験の不正でパートナーが$10,000の罰金を科されたことまで含まれます。
「その例は皮肉を完璧に示しています」とMisnerは言いました。「より大きな脅威は、組織が手探りで飛んでいることです。もし労働力のほぼ半分が不適切にAIを使っているのに、それすら分かっていないなら、リスクの露出は非常に大きくなります。データ漏えいからコンプライアンス違反、そして、実際にあなたの人々が必要としているスキルの侵食までです。」
邪悪なAI利用を“影”から取り出す
Cスイート(経営幹部)は、AIが自社で倫理的に使われていることを確実にするために、提案、方針、そして罰則を打ち出す必要があります。これらの戦略は最優先事項としてリストの上位に置かれるべきです。
過去から学ぶ
メルボルン/KPMGの数字がAIに特有のものではない、という主張には十分な根拠があります。
「私たちは、インターネットや検索エンジンが職場に最初に登場したときも、似たパターンを見ました」と、ミネアポリスのAIベースのユーザーエンゲージメント企業Solstenの共同創業者であるJoe Schaeppiは述べました。「強力な新しいツールが現れるたびに、誤用は避けられません。それは人間の本性です。」
AIの導入が広がるにつれ、Schaeppiは、マネジメントはより多くの試行錯誤やグレーゾーンの行動を目にすることになる可能性が高いと語りましたが、すべての技術と同様に、ガバナンスやガードレールも進化します。「Anthropicのような企業は、テクノロジーが成熟するにつれてリスクを減らすためのルールや制約を組み込み、すでによりエンタープライズ重視のアプローチを取っています」と彼は述べました。「もしどんなツールでも不適切な行動が見られるなら、その懸念は文化と、どのように方針や手順を徹底しているかに置くべきです。」
人による監督に寄り添う
職場でのAI活用を制御下に置くためには、マネジメントは、企業の将来にとって特に重要なあらゆるデータ種別について、会社のデータアクセスと権限を見直すために、AI分析チームを任務として組ませなければなりません。
「次に、合成データセットは何も新しい話ではなく、データを活用しながらアウトカムをなおもモデル化できる優れた方法です」と彼は言いました。「また、何かが本番に出る前に、必ず人が介在することを私は勧めます。複数の企業が、AIのレポート数値が間違っていることをまだ見つけています。メッセージがブランドに合っているか、適切かを確かめるにしても、人が介在することが重要です。」
AI利用ルールを明確にする
企業は、承認済みの社内AIツールも提示し、そして1つの明確なルールを設定すべきです。機密情報や規制対象の情報を、公開されているAIシステムに絶対に入れないでください。
「また、機密性の高いデータがどこへ流れているか、とくにAIツールへのコピペが起きていないかを監視すべきです。これはいまや、多くの企業がまったく見落としてしまう主要な“盲点”になっています」とTimsahは言いました。「最も重要なのは、企業が従業員をどう評価するかを変えなければならないということです。 」
Timsahは、企業のリーダーに対し、洗練された出力物だけを報酬対象にしないよう促してもいます。「従業員には、自分の推論を説明させ、理解していることを示させることが必要です」と彼女は言いました。「AIは答えを生成できますが、所有(オーナーシップ)や説明責任を代替することはできません。」
i-GENTICでTimsahのチームが最初に実装した方針は、シンプルで明確でした。従業員は承認済みのAIツールを使ってよいが、機密情報、クライアント情報、財務情報、または独自情報を公開AIシステムに入力してはならない、というものです。
「私たちは“制限”ではなく“明確さ”に焦点を当てました」と彼女は指摘しました。「従業員はAI利用が許可されていることを、しかし明確な境界があることも理解していたので、信頼が生まれました。さらに、それが何が安全で、何がそうでないのかを全員が理解していたため、説明責任も構築できました。」
社内研修の中身は、誰も読まないような曖昧な方針ではなく、実践的な例に焦点を当てるべきです。従業員は、何が安全で、何が安全でないのかをはっきり理解する必要があります。
「一般的なメールを書き換えるためにAIを使うのは問題ありません」とTimsahは言いました。「クライアントの契約書、財務データ、または独自情報を公開AIツールにアップロードするのは問題です。アイデアをブレインストーミングするためにAIを使うのは問題ありません。自分が理解していないAIが生成した分析を、自分の仕事として提示するのは問題です。」
社外の強制執行の支援を得るべきタイミング
従業員によるAIの誤用は、意図と害がある場合に法的な問題になります。
「これには、機密データの漏えい、知的財産の盗用、金融情報の操作、またはAI支援による詐欺の実行が含まれます」とTimsahは述べました。「その時点で、企業は調査担当者、規制当局、あるいは法執行機関を関与させる可能性があります。」
企業の意思決定者は、ほとんどの誤用は悪意の意図から始まるというより、利便性から始まることも知っておくべきです。しかし、それが実際の害、金銭的な露出、あるいは欺きにつながると、法的領域に踏み込みます。「重要な違いは、その誤用が露出、損失、または意図的な隠蔽を生んだかどうかです」とTimsahは付け加えました。
最後に、研修に注力する
専門家は、組織がAI利用を他のあらゆる高リスク行動と同様に扱い、従業員に安全な使い方を教育することが重要だと述べています。
さらに、従業員にAI利用を教育する際、マネジメントは、AIを使ったとしても自分は免責されるわけではないことを理解させなければなりません。
「従業員は、AIプラットフォームにアップロードする情報が正確であり、いかなる法律にも違反していないことを確保する責任があります」とKingsley Szamet Employment LawyersのパートナーであるKelsey Szametは言いました。「また、従業員は、機密情報や独自情報をAIプラットフォームにアップロードすると、そのような情報がプラットフォーム上で恒久的に公開される結果になり得ることも認識すべきです。」
雇用の観点では、一貫性が鍵です。もしある従業員がAIの誤用で解雇され、別の従業員は解雇されない場合、それが差別や報復(リタリエーション)に関する責任問題を生みます。「整備されたより強い方針と研修プロセスがあるほど、訴訟のリスクは低くなります」とSzametは述べました。
より大きな懸念は、従業員がAIを使うかどうかではありません。彼らは使います。「懸念は、AIが問題になる前に、企業がそれにどう対処するかです」とSzametは付け加えました。
規約 とプライバシーポリシー
プライバシーダッシュボード
さらに詳しく