Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Os funcionários estão a usar IA de forma prejudicial. As empresas podem estar às escuras
Os trabalhadores estão a usar IA de formas prejudiciais. As empresas podem estar no escuro
Quartz · China News Service via Getty Images
Brian O’Connell
Qui, 26 de Fevereiro de 2026 às 7:00 PM GMT+9 7 min de leitura
A inteligência artificial atingiu o mercado de trabalho como um sismo e, cada vez mais, as empresas estão a lidar com as réplicas.
Um problema em crescimento é o aparecimento da chamada “IA das sombras”, em que os trabalhadores usam IA de formas que não deviam, seja por intenção ou sem querer.
De acordo com um estudo recente da University of Melbourne e da KPMG, 47% dos profissionais de carreira inquiridos já usaram IA no trabalho de forma inadequada, e 63% dizem que já viram outros colegas a usar IA de forma inadequada. Esses casos variam, desde usar IA para fazer “chat” em testes internos de avaliação de desempenho até introduzir dados sensíveis da empresa em ferramentas de IA de terceiros.
Fazê-lo acarreta um risco enorme para as empresas, referiu o estudo.
“Este uso invisível ou de IA das sombras não só agrava os riscos – como também prejudica severamente a capacidade de uma organização para detetar, gerir e mitigar riscos”, refere o relatório.
As empresas enfrentam uma ilusão de competência impulsionada por IA
Os especialistas do local de trabalho dizem que a verdadeira mudança com a IA não é que os funcionários se tenham tornado subitamente desonestos. A mudança é que a IA dá atalhos depressa, de forma fácil e invisível.
“Antes da IA, esconder um trabalho fraco era mais difícil”, disse Zahra Timsah, líder de governação de IA e CEO da i-GENTIC AI, uma plataforma de conformidade em IA agentica. “Agora um funcionário consegue gerar um relatório polido em minutos, e os gestores assumem competência. Isto cria a ilusão de produtividade.”
Por exemplo, Timsah cita um funcionário que usa IA para gerar uma análise e a apresenta com confiança, mas não consegue defendê-la quando é questionado. “A empresa toma decisões com base num trabalho que ninguém verdadeiramente entende”, acrescentou Timsah. “A maior ameaça não é trapacear em testes. É as empresas estarem silenciosamente a perder inteligência interna enquanto acreditam que as suas equipas estão a pensar de forma independente.”
Outros executivos corporativos de grande destaque dizem que os dados indicam que as empresas estão apenas agora a ver o topo do icebergue no uso de IA das sombras. Considere o quadro mais completo a partir do estudo de Melbourne:
— 44% dos trabalhadores nos EUA estão a usar ferramentas de IA sem autorização adequada,
— 46% carregaram informações sensíveis da empresa e propriedade intelectual para plataformas públicas de IA, e 64% admitem colocar menos esforço no trabalho porque podem apoiar-se na IA.
— Mais de metade, 57%, estão a cometer erros no trabalho devido ao uso de IA sem controlo, e 53% estão a ocultar totalmente o seu uso de IA, apresentando conteúdos gerados por IA como se fossem seus.
“Não é apenas que as pessoas estejam a apresentar a IA como se fosse o seu próprio trabalho; estão também a envenenar o ‘poço’ corporativo ao recorrer a ‘IA’ de baixa qualidade”, disse Nick Misner, COO da Cybrary, uma plataforma de desenvolvimento profissional de cibersegurança sediada em Atlanta. “Embora a IA acelere a velocidade com que podemos programar, está a introduzir mais dívida e vulnerabilidades de segurança na organização.”
Misner refere que este não é um fenómeno isolado; em vez disso, é uma falha sistémica de preparação organizacional.
“Estamos a ver a adoção de IA disparar muito à frente da governação”, disse. “O relatório Gallup sobre o Estado do Local de Trabalho Global diz-nos que 79% da força de trabalho global está algures entre ‘fazer o mínimo’ e ‘desengajado ativamente’.”
Consequentemente, quando entrega a trabalhadores desengajados uma ferramenta poderosa sem orientações significativas, eles não a vão usar para se tornarem mais produtivos. “Vão usá-la para fazer o mesmo trabalho com menos esforço ou, pior, para contornar regras de formas que criam um risco organizacional real”, referiu.
A ameaça não é apenas sobre trapacear em testes, embora num caso reportado na Austrália pela KPMG, esta semana, em que 28 funcionários foram apanhados a usar IA para trapacear em exames internos, incluindo um parceiro multado em $10,000 por trapacear num exame de ética em IA.
“Esse exemplo ilustra perfeitamente a ironia”, disse Misner. “A maior ameaça é que as organizações estão a voar às cegas. Se quase metade da sua força de trabalho está a usar IA de forma inadequada e nem sequer sabe disso, o seu nível de exposição ao risco é enorme, desde fuga de dados a violações de conformidade até à erosão das competências de que as pessoas realmente precisam.”
Retirar o uso malicioso de IA das sombras
O topo da empresa (C-suite) deve avançar com propostas, políticas e penalizações para garantir que a IA está a ser usada de forma ética nas suas empresas. Estas estratégias devem estar no topo da lista de prioridades.
Aprender com o passado
Há um bom argumento para dizer que os números de Melbourne/KPMG não são exclusivos de IA.
“Vimos padrões semelhantes quando a internet e os motores de busca entraram pela primeira vez no local de trabalho”, disse Joe Schaeppi, cofundador da Solsten, uma empresa de envolvimento do utilizador baseada em IA em Minneapolis, Minn. “Sempre que surge uma ferramenta nova e poderosa, o uso indevido é inevitável; é da natureza humana.”
À medida que a adoção de IA cresce, Schaeppi disse que a gestão provavelmente vai ver mais experimentação e comportamento numa zona cinzenta, mas como acontece com toda a tecnologia, a governação e os guardrails evoluem. “Empresas como a Anthropic estão a adotar uma abordagem já mais focada em empresa, criando regras e limitações para reduzir o risco à medida que a tecnologia amadurece”, referiu. “Se és uma empresa e observas comportamentos inadequados em qualquer ferramenta, a preocupação deve recair na cultura e em como fazes cumprir as políticas e os procedimentos.”
Apostar na supervisão humana
Para manter os contactos com a IA no local de trabalho sob controlo, a gestão deve encarregar uma equipa de análise de IA de rever o acesso aos dados da empresa e as permissões para quaisquer tipos de dados que sejam fundamentais para o futuro do negócio.
“Em seguida, os conjuntos de dados sintéticos não são novidade e são uma boa forma de ainda modelar resultados enquanto aproveitas os teus dados”, disse. “Além disso, eu envolveria sempre um humano no circuito antes de qualquer coisa avançar para produção. Múltiplas empresas continuam a encontrar números de relatórios de IA errados. Seja para garantir que a mensagem continua em linha com a marca ou que é adequada, é importante manter um humano no circuito.”
Ser extremamente claro sobre as regras de utilização da IA
As empresas também devem disponibilizar ferramentas internas de IA aprovadas e definir uma única regra clara. Nunca introduzir informação confidencial ou regulada em sistemas públicos de IA.
“Também devem monitorizar para onde flui informação sensível, especialmente o ‘copy-paste’ para ferramentas de IA, que agora é uma grande falha cega que a maioria das empresas ignora completamente”, disse Timsah. “O mais importante é que as empresas têm de mudar a forma como avaliam os trabalhadores. “
Timsah também incentiva os líderes da empresa a evitar recompensar apenas resultados polidos. “Exijam que os trabalhadores expliquem o seu raciocínio e demonstrem compreensão”, disse. “A IA consegue gerar respostas, mas não consegue substituir a titularidade ou a responsabilização.”
A primeira política que a equipa de Timsah implementou na i-GENTIC foi simples e clara: os trabalhadores podiam usar ferramentas de IA aprovadas, mas não podiam introduzir informação confidencial, do cliente, financeira ou proprietária em sistemas públicos de IA.
“Focámo-nos na clareza, não na restrição”, referiu. “Isto criou confiança porque o trabalhador sabia que o uso de IA era permitido, mas com limites claros. Também criou responsabilização, porque todos compreendiam o que era seguro e o que não era.”
A formação interna da empresa deve focar-se em exemplos práticos, não em políticas vagas que ninguém lê. Os trabalhadores precisam de compreender claramente o que é seguro e o que não é.
“Usar IA para reescrever um e-mail genérico está bem”, disse Timsah. “Carregar contratos de clientes, dados financeiros ou informação proprietária numa ferramenta pública de IA não está. Usar IA para gerar ideias por ‘brainstorming’ está bem. Apresentar como se fosse o seu próprio trabalho uma análise gerada por IA que não compreende, não está.”
Quando pedir ajuda externa para fazer cumprir a lei
O uso indevido de IA por parte dos trabalhadores torna-se uma questão legal quando há intenção e dano.
“Isso inclui a fuga de dados confidenciais, o roubo de propriedade intelectual, a manipulação de informação financeira ou a prática de fraude com assistência de IA”, referiu Timsah. “Nesse ponto, as empresas podem envolver investigadores, reguladores ou forças de segurança.”
Os decisores de uma empresa também devem saber que a maior parte do uso indevido começa como conveniência, não como intenção maliciosa, mas quando causa um dano real, exposição financeira ou engano, passa a ser uma questão legal. “A distinção-chave é se o uso indevido resultou em exposição, perda ou ocultação intencional”, acrescentou Timsah.
Por fim, apostar na formação
Os especialistas dizem que é importante assinalar que as organizações devem tratar o uso de IA como qualquer outro comportamento de alto risco e educar os trabalhadores sobre como usá-la em segurança.
Além disso, ao educar os trabalhadores sobre o uso de IA, a gestão tem de torná-los conscientes de que usar IA não os livra do “peso da responsabilidade”.
“Os trabalhadores continuam a ser responsáveis por garantir que a informação que carregam em plataformas de IA é precisa e não viola quaisquer leis”, disse Kelsey Szamet, sócia da Kingsley Szamet Employment Lawyers. “Os trabalhadores também devem estar conscientes de que o carregamento de informação confidencial e proprietária em plataformas de IA pode resultar na exposição permanente dessa informação na plataforma.”
Do ponto de vista do emprego, a consistência é fundamental. Se um trabalhador for despedido por uso indevido de IA e outro não, isso cria problemas de responsabilidade relacionados com discriminação e retaliação. “Quanto mais forte for a política e o processo de formação implementados, menor é o risco de litígios”, disse Szamet.
A principal preocupação não é que os trabalhadores vão usar IA. Vão. “A preocupação é que as empresas vão resolver isto antes de se tornar um problema”, acrescentou Szamet.
Termos e Política de Privacidade
Painel de Privacidade
Mais Informações