Los empleados están usando la IA de manera perjudicial. Las empresas podrían estar en la oscuridad

Los empleados están usando la IA de manera perjudicial. Las empresas podrían estar a oscuras

Quartz · China News Service vía Getty Images

Brian O’Connell

Jue, 26 de febrero de 2026 a las 7:00 PM GMT+9 7 min de lectura

La inteligencia artificial ha golpeado a la fuerza laboral como un terremoto, y cada vez más las empresas están lidiando con las réplicas.

Un problema que está creciendo es el auge de la llamada “IA en la sombra”, cuando los trabajadores usan IA de formas que no deberían, ya sea por accidente o no.

Según un estudio reciente de la Universidad de Melbourne y KPMG, el 47% de los profesionales de su carrera encuestados han usado IA en el trabajo de manera inapropiada, y el 63% dice que ha visto a otros empleados usando IA de manera inapropiada. Esos casos varían, desde usar IA para chatear en pruebas internas de evaluación del desempeño de la empresa hasta introducir datos sensibles de la compañía en herramientas de IA de terceros.

Hacerlo conlleva un riesgo enorme para las empresas, señaló el estudio.

“Este uso invisible o de IA en la sombra no solo agrava los riesgos: también dificulta de forma severa la capacidad de una organización para detectar, gestionar y mitigar riesgos”, señaló el informe.

Las empresas se enfrentan a una ilusión impulsada por la IA de competencia

Los expertos del lugar de trabajo dicen que el cambio real con la IA no es que los empleados de repente se hayan vuelto deshonestos. El cambio es que la IA toma atajos rápido, fácilmente y de manera invisible.

“Antes de la IA, ocultar un trabajo deficiente era más difícil”, dijo Zahra Timsah, líder de gobernanza de IA y CEO de i-GENTIC AI, una plataforma de cumplimiento de IA agentica. “Ahora un empleado puede generar un informe pulido en minutos y los gerentes asumen competencia. Esto crea la ilusión de productividad”.

Por ejemplo, Timsah cita a un empleado que usa IA para generar análisis y lo presenta con confianza, pero no puede defenderlo cuando se le cuestiona. “La empresa toma decisiones basadas en trabajos que nadie realmente entiende”, añadió Timsah. “La mayor amenaza no es hacer trampas en los exámenes. Es que las empresas pierden en silencio la inteligencia interna mientras creen que sus equipos están pensando de forma independiente”.

Otros altos ejecutivos corporativos dicen que los datos indican que las empresas apenas están viendo la punta del iceberg sobre el uso de IA en la sombra. Considere el panorama completo del estudio de Melbourne:

— El 44% de los trabajadores de EE. UU. usa herramientas de IA sin autorización adecuada,

— el 46% ha subido información sensible de la empresa y propiedad intelectual a plataformas públicas de IA, y el 64% admite que pone menos esfuerzo en su trabajo porque puede apoyarse en IA.

— Más de la mitad, el 57%, comete errores en su trabajo debido al uso de IA sin control, y el 53% está ocultando por completo su uso de IA, presentando contenido generado por IA como si fuera propio.

“No es solo que la gente esté pasando la IA como su propio trabajo; también está envenenando el ‘pozo’ corporativo al depender de basura de IA”, dijo Nick Misner, COO de Cybrary, una plataforma de desarrollo profesional de ciberseguridad con sede en Atlanta. “Mientras la IA acelera la velocidad con la que podemos programar, está introduciendo más deuda y vulnerabilidades de seguridad en la organización”.

La historia continúa  

Misner señala que esto no es una tendencia aislada; en cambio, es un fallo sistémico de la preparación organizacional.

“Estamos viendo que la adopción de IA supera masivamente la gobernanza”, dijo. “El informe de Gallup sobre el Estado del Lugar de Trabajo Global nos dice que el 79% de la fuerza laboral global está en algún punto entre ‘hacer lo mínimo’ y ‘desconectarse activamente’”.

En consecuencia, cuando entregas a trabajadores desconectados una herramienta poderosa sin una guía significativa, no la van a usar para volverse más productivos. “Van a usarla para hacer el mismo trabajo con menos esfuerzo o, peor aún, para recortar camino de maneras que crean un riesgo organizacional real”, señaló.

La amenaza no se trata solo de hacer trampas en exámenes, aunque en un caso reportado de KPMG Australia de esta semana, 28 empleados fueron sorprendidos usando IA para hacer trampa en exámenes internos, incluido un socio multado con $10,000 por hacer trampa en un examen de ética de la IA.

“Ese ejemplo ilustra perfectamente la ironía”, dijo Misner. “La amenaza más grande es que las organizaciones están volando a ciegas. Si casi la mitad de tu fuerza laboral usa IA de forma inapropiada y ni siquiera lo sabes, tu exposición al riesgo es enorme, desde filtraciones de datos hasta violaciones de cumplimiento y el deterioro de las habilidades que realmente necesita tu gente”.

Sacar el uso malintencionado de la IA de las sombras

El equipo directivo debe dar un paso al frente con propuestas, políticas y sanciones para asegurar que la IA se use de forma ética en sus empresas. Estas estrategias deberían estar en la parte superior de su lista de prioridades.

Aprende del pasado

Hay un buen argumento para sostener que las cifras de Melbourne/KPMG no son exclusivas de la IA.

“Vimos patrones similares cuando Internet y los motores de búsqueda entraron por primera vez en el lugar de trabajo”, dijo Joe Schaeppi, cofundador de Solsten, una empresa de participación de usuarios basada en IA en Minneapolis, Minn. “Cada vez que aparece una herramienta nueva y poderosa, el mal uso es inevitable; así es la naturaleza humana”.

A medida que crece la adopción de IA, Schaeppi dijo que la gerencia probablemente verá más experimentación y comportamientos en la zona gris, pero como con todas las tecnologías, la gobernanza y las barreras de protección evolucionan. “Empresas como Anthropic ya están adoptando un enfoque más orientado a la empresa, incorporando reglas y restricciones para reducir el riesgo a medida que la tecnología madura”, señaló. “Si eres una empresa y ves un comportamiento inapropiado en cualquier herramienta, la preocupación debe ponerse en la cultura y en cómo haces cumplir políticas y procedimientos”.

Apuesta por la supervisión humana

Para mantener bajo control las interacciones con IA en el lugar de trabajo, la gerencia debe encargar a un equipo de análisis de IA que revise el acceso de datos y los permisos de la empresa para cualquier tipo de datos que sea primordial para el futuro del negocio.

“Después, los conjuntos de datos sintéticos no son nada nuevo y son una gran forma de seguir modelando resultados aprovechando tus datos”, dijo. “Además, siempre involucraría a un humano en el circuito antes de que algo salga a producción. Varias empresas aún han encontrado que los números de reportes de IA están mal. Ya sea asegurar que el mensaje siga alineado con la marca o que sea apropiado, es importante mantener a un humano en el circuito”.

Deja reglas de uso de IA completamente claras

Las empresas también deberían proporcionar herramientas internas de IA aprobadas y establecer una sola regla clara. Nunca pongas información confidencial o regulada en sistemas públicos de IA.

“También deberían monitorear por dónde fluye la información sensible, especialmente copiar y pegar en herramientas de IA, que ahora es una gran zona ciega que la mayoría de las empresas pasa completamente por alto”, dijo Timsah. “Lo más importante es que las empresas deben cambiar la forma en que evalúan a los empleados”.

Timsah también alienta a los líderes de la empresa a evitar premiar únicamente la salida pulida. “Exige que los empleados expliquen su razonamiento y demuestren comprensión”, dijo. “La IA puede generar respuestas, pero no puede reemplazar la propiedad o la rendición de cuentas”.

La primera política que el equipo de Timsah implementó en i-GENTIC fue simple y clara: los empleados podían usar herramientas de IA aprobadas, pero no podían introducir información confidencial, de clientes, financiera o propietaria en sistemas públicos de IA.

“Nos enfocamos en la claridad, no en la restricción”, señaló. “Esto generó confianza porque el empleado sabía que el uso de IA estaba permitido, pero con límites claros. También construyó rendición de cuentas, porque todos entendían qué estaba seguro y qué no”.

La capacitación interna de la empresa debería centrarse en ejemplos prácticos, no en políticas vagas que nadie lee. Los empleados necesitan entender claramente qué está seguro y qué no.

“Usar IA para reescribir un correo electrónico genérico está bien”, dijo Timsah. “Subir contratos de clientes, datos financieros o información propietaria en una herramienta pública de IA no lo está. Usar IA para generar ideas está bien. Presentar análisis generado por IA que no entiendes como si fuera tu propio trabajo no lo está”.

Cuándo conseguir ayuda de ejecución externa ayuda

El mal uso de IA por parte de empleados se convierte en un asunto legal cuando hay intención y daño.

“Esto incluye filtrar datos confidenciales, robar propiedad intelectual, manipular información financiera o cometer fraude con asistencia de IA”, señaló Timsah. “En ese punto, las empresas pueden involucrar investigadores, reguladores o fuerzas del orden”.

Los responsables de la toma de decisiones de la empresa también deberían saber que la mayoría de los mal usos comienzan como conveniencia, no como intención maliciosa, pero una vez que causa un daño real, exposición financiera o engaño, entra en territorio legal. “La distinción clave es si el mal uso resultó en exposición, pérdida u ocultamiento intencional”, añadió Timsah.

Por último, enfócate en la capacitación

Los expertos dicen que es importante señalar que las organizaciones deben tratar el uso de IA como cualquier otra conducta de alto riesgo y educar a los empleados sobre cómo usarla de forma segura.

Además, al educar a los empleados sobre el uso de IA, la gerencia debe asegurarse de que sepan que usar IA no los exime de responsabilidad.

“Los empleados siguen siendo responsables de garantizar que la información que suben en plataformas de IA sea precisa y que no viole ninguna ley”, dijo Kelsey Szamet, socia de Kingsley Szamet Employment Lawyers. “Los empleados también deben saber que subir información confidencial y propietaria en plataformas de IA puede hacer que dicha información quede expuesta permanentemente en la plataforma”.

Desde la perspectiva del empleo, la consistencia es clave. Si a un empleado se le despide por mal uso de IA y a otro no, eso crea problemas de responsabilidad por discriminación y represalias. “Cuanto más sólida sea la política y el proceso de capacitación, menor es el riesgo de litigio”, dijo Szamet.

La preocupación más grande no es que los empleados vayan a usar IA. La usarán. “La preocupación es que las empresas aborden esto antes de que se convierta en un problema”, añadió Szamet.

Términos y Política de Privacidad

Panel de Privacidad

Más información

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado