Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les employés utilisent l'IA de manière nuisible. Les entreprises pourraient être dans l'ignorance
Les employés utilisent l’IA de manière préjudiciable. Les entreprises peuvent être dans l’ignorance
Quartz · China News Service via Getty Images
Brian O’Connell
Thu, February 26, 2026 at 7:00 PM GMT+9 7 min read
L’intelligence artificielle a frappé le monde du travail comme un séisme, et de plus en plus d’entreprises gèrent désormais les répliques.
Un problème en plein essor est celui de ce qu’on appelle le « shadow AI » (IA fantôme), dans lequel les travailleurs utilisent l’IA de façons qu’ils ne devraient pas, que ce soit de manière involontaire ou non.
Selon une étude récente de l’Université de Melbourne et de KPMG, 47% des professionnels de carrière interrogés ont utilisé l’IA au travail de manière inappropriée, et 63% disent avoir vu d’autres membres du personnel utiliser l’IA de manière inappropriée. Ces cas varient, allant de l’utilisation de l’IA pour discuter sur des tests internes d’évaluation des performances de l’entreprise à l’injection de données sensibles de l’entreprise dans des outils d’IA tiers.
« Faire cela fait courir d’énormes risques aux entreprises », a noté l’étude.
« Cette utilisation invisible, ou “shadow AI”, n’exacerbe pas seulement les risques — elle entrave aussi fortement la capacité d’une organisation à détecter, gérer et atténuer les risques », indique le rapport.
Les entreprises font face à une illusion de compétence pilotée par l’IA
Les experts du lieu de travail disent que le vrai changement avec l’IA n’est pas que les employés seraient soudain devenus malhonnêtes. Le changement, c’est que l’IA prend des raccourcis vite, facilement et de manière invisible.
« Avant l’IA, cacher un travail médiocre était plus difficile », a déclaré Zahra Timsah, responsable de la gouvernance de l’IA et PDG d’i-GENTIC AI, une plateforme de conformité d’IA agentique. « Maintenant, un employé peut générer un rapport soigné en quelques minutes, et les managers supposent la compétence. Cela crée l’illusion de productivité. »
Par exemple, Timsah cite un employé qui utilise l’IA pour générer une analyse et la présente avec assurance, mais qui ne peut pas la défendre lorsqu’on la questionne. « L’entreprise prend des décisions basées sur un travail que personne ne comprend vraiment », a ajouté Timsah. « La plus grande menace n’est pas de tricher aux tests. C’est que les entreprises perdent silencieusement leur intelligence interne tout en croyant que leurs équipes pensent de manière indépendante. »
D’autres dirigeants d’entreprise très médiatisés disent que les données indiquent que les entreprises ne font que commencer à voir le bout de l’iceberg concernant l’usage de la “shadow AI”. Considérez l’image plus complète issue de l’étude de Melbourne :
— 44% des travailleurs américains utilisent des outils d’IA sans autorisation appropriée,
— 46% ont téléversé des informations sensibles de l’entreprise et de la propriété intellectuelle vers des plateformes d’IA publiques, et 64% admettent fournir moins d’efforts dans leur travail parce qu’ils peuvent s’appuyer sur l’IA.
— Plus de la moitié, 57%, font des erreurs dans leur travail à cause d’un usage non contrôlé de l’IA, et 53% dissimulent totalement leur usage de l’IA, en présentant du contenu généré par l’IA comme étant le leur.
« Ce n’est pas seulement que les gens font passer l’IA pour leur propre travail ; ils empoisonnent aussi le “puits” de l’entreprise en s’appuyant sur des “poubelles” d’IA », a déclaré Nick Misner, directeur des opérations (COO) de Cybrary, une plateforme de développement professionnel en cybersécurité basée à Atlanta. « Alors que l’IA accélère la vitesse à laquelle nous pouvons coder, elle introduit davantage de dette et de vulnérabilités en matière de sécurité dans l’organisation. »
Misner souligne que ce n’est pas une tendance isolée ; c’est plutôt un échec systémique de la préparation organisationnelle.
« Nous voyons l’adoption de l’IA dépasser massivement la gouvernance », a-t-il dit. « Le rapport Gallup sur l’État du lieu de travail mondial nous apprend que 79% de la main-d’œuvre mondiale se situe quelque part entre “faire le minimum” et “être activement désengagée”. »
Par conséquent, lorsque vous donnez à des travailleurs désengagés un outil puissant sans conseils significatifs, ils ne vont pas l’utiliser pour devenir plus productifs. « Ils vont l’utiliser pour faire le même travail avec moins d’effort ou, pire, pour prendre des raccourcis qui créent un risque organisationnel réel », a-t-il noté.
La menace ne concerne pas seulement la triche aux tests, même si, dans un cas signalé en Australie par KPMG cette semaine, 28 employés ont été pris en train d’utiliser l’IA pour tricher lors d’examens internes, dont un partenaire condamné à une amende de $10,000 pour avoir triché à un examen sur l’éthique de l’IA.
« Cet exemple illustre parfaitement l’ironie », a déclaré Misner. « La plus grande menace, c’est que les organisations volent à l’aveugle. Si près de la moitié de votre main-d’œuvre utilise l’IA de manière inappropriée et que vous ne le savez même pas, votre exposition au risque est énorme, de la fuite de données aux violations de conformité, jusqu’à l’érosion des compétences dont vos équipes ont réellement besoin. »
Sortir l’usage malveillant de l’IA des ombres
Le comité exécutif (C-suite) doit passer à l’action avec des propositions, des politiques et des sanctions pour s’assurer que l’IA est utilisée de manière éthique dans leurs entreprises. Ces stratégies devraient figurer tout en haut de leur liste de priorités.
Tirez des leçons du passé
Il y a un bon argument à faire valoir que les chiffres de Melbourne/KPMG ne sont pas uniques à l’IA.
« Nous avons observé des schémas similaires lorsque l’internet et les moteurs de recherche ont fait leur première entrée sur le lieu de travail », a déclaré Joe Schaeppi, cofondateur de Solsten, une entreprise de type plateforme d’engagement utilisateur basée sur l’IA à Minneapolis, Minn. « Chaque fois qu’un nouvel outil puissant apparaît, l’usage abusif est inévitable ; c’est la nature humaine. »
À mesure que l’adoption de l’IA grandit, Schaeppi a déclaré que la direction verra probablement davantage d’expérimentations et de comportements dans des zones grises, mais comme pour toutes les technologies, la gouvernance et les garde-fous évoluent. « Des entreprises comme Anthropic adoptent déjà une approche plus orientée entreprise, en intégrant des règles et des contraintes pour réduire le risque à mesure que la technologie mûrit », a-t-il noté. « Si vous êtes une entreprise et que vous constatez un comportement inapproprié sur n’importe quel outil, la préoccupation doit se porter sur la culture et sur la manière dont vous appliquez les politiques et procédures. »
S’appuyer sur une supervision humaine
Pour maintenir sous contrôle les interventions d’IA sur le lieu de travail, la direction doit confier à une équipe d’analyse de l’IA la tâche de vérifier l’accès aux données de l’entreprise et les autorisations pour tout type de données qui est primordial pour l’avenir de l’entreprise.
« Ensuite, les jeux de données synthétiques ne sont rien de nouveau et constituent un excellent moyen de continuer à modéliser des résultats tout en tirant parti de vos données », a-t-il dit. « De plus, j’impliquerais toujours un humain dans la boucle avant que quoi que ce soit ne soit mis en ligne. Plusieurs entreprises ont encore trouvé que les chiffres de reporting générés par l’IA étaient erronés. Qu’il s’agisse de s’assurer que le message est toujours dans la bonne tonalité ou approprié, il est important de garder un humain dans la boucle. »
Être extrêmement clair sur les règles d’utilisation de l’IA
Les entreprises devraient aussi fournir des outils d’IA internes approuvés et définir une seule règle claire. Ne mettez jamais d’informations confidentielles ou réglementées dans des systèmes d’IA publics.
« Elles devraient aussi surveiller l’endroit où circulent les données sensibles, en particulier le copier-coller dans des outils d’IA, qui constitue désormais un angle mort majeur que la plupart des entreprises ratent complètement », a déclaré Timsah. « Plus important encore, les entreprises doivent changer la manière dont elles évaluent les employés. »
Timsah encourage également les dirigeants d’entreprise à éviter de récompenser uniquement une sortie soignée. « Exigez que les employés expliquent leur raisonnement et démontrent leur compréhension », a-t-elle dit. « L’IA peut générer des réponses, mais elle ne peut pas remplacer la responsabilité ni l’imputabilité. »
La première politique que l’équipe de Timsah a mise en place chez i-GENTIC était simple et claire : les employés pouvaient utiliser des outils d’IA approuvés, mais ils ne pouvaient pas saisir d’informations confidentielles, clients, financières ou propriétaires dans des systèmes d’IA publics.
« Nous nous sommes concentrés sur la clarté, pas sur la restriction », a-t-elle noté. « Cela a créé de la confiance parce que l’employé savait que l’usage de l’IA était autorisé, mais avec des limites claires. Cela a aussi instauré de l’imputabilité, parce que tout le monde comprenait ce qui était sûr et ce qui ne l’était pas. »
La formation interne de l’entreprise devrait se concentrer sur des exemples concrets, pas sur des politiques vagues que personne ne lit. Les employés doivent comprendre clairement ce qui est sûr et ce qui ne l’est pas.
« Utiliser l’IA pour réécrire un e-mail générique, c’est OK », a déclaré Timsah. « Téléverser des contrats clients, des données financières ou des informations propriétaires dans un outil d’IA public, non. Utiliser l’IA pour brainstormer des idées, c’est OK. Présenter une analyse générée par l’IA que vous ne comprenez pas comme votre propre travail, non. »
Quand faire intervenir des services externes pour l’application des règles aide
L’usage abusif de l’IA par un employé devient un problème juridique lorsqu’il y a intention et préjudice.
« Cela inclut la fuite de données confidentielles, le vol de propriété intellectuelle, la manipulation d’informations financières, ou la commission de fraude avec l’aide de l’IA », a noté Timsah. « À ce stade, les entreprises peuvent impliquer des enquêteurs, des régulateurs ou les forces de l’ordre. »
Les décideurs d’entreprise doivent aussi savoir que la plupart des usages abusifs commencent par une commodité, plutôt que par une intention malveillante, mais qu’une fois qu’ils causent un réel préjudice, une exposition financière ou de la tromperie, cela relève du domaine légal. « La distinction clé, c’est de savoir si l’usage abusif a entraîné une exposition, une perte ou une dissimulation intentionnelle », a ajouté Timsah.
Enfin, se concentrer sur la formation
Les experts disent qu’il est important de noter que les organisations devraient traiter l’utilisation de l’IA comme tout autre comportement à haut risque et éduquer les employés sur la manière de l’utiliser en toute sécurité.
De plus, lors de l’éducation des employés sur l’utilisation de l’IA, la direction doit leur faire comprendre que l’utilisation de l’IA ne les décharge pas de leurs responsabilités.
« Les employés restent responsables de s’assurer que les informations qu’ils téléversent sur des plateformes d’IA sont exactes et qu’elles ne violent aucune loi », a déclaré Kelsey Szamet, associée chez Kingsley Szamet Employment Lawyers. « Les employés devraient aussi savoir que le téléversement d’informations confidentielles et propriétaires sur des plateformes d’IA peut entraîner une exposition permanente de ces informations sur la plateforme. »
Du point de vue de l’emploi, la cohérence est essentielle. Si un employé est licencié pour usage abusif de l’IA et qu’un autre ne l’est pas, cela crée des problèmes de responsabilité liés à la discrimination et à la rétorsion. « Plus la politique et le processus de formation en place sont solides, moins il y a de risques de contentieux », a déclaré Szamet.
La préoccupation plus large n’est pas que les employés vont utiliser l’IA. Ils vont. « Le sujet, c’est que les entreprises vont traiter la question avant qu’elle ne devienne un problème », a ajouté Szamet.
Conditions et politique de confidentialité
Tableau de bord de confidentialité
Plus d’infos