Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los empleados están usando la IA de manera perjudicial. Las empresas podrían estar en la oscuridad
Los empleados están usando la IA de manera perjudicial. Las empresas podrían estar a oscuras
Quartz · China News Service vía Getty Images
Brian O’Connell
Jue, 26 de febrero de 2026 a las 7:00 PM GMT+9 7 min de lectura
La inteligencia artificial ha golpeado a la fuerza laboral como un terremoto, y cada vez más las empresas están lidiando con las réplicas.
Un problema que está creciendo es el auge de la llamada “IA en la sombra”, cuando los trabajadores usan IA de formas que no deberían, ya sea por accidente o no.
Según un estudio reciente de la Universidad de Melbourne y KPMG, el 47% de los profesionales de su carrera encuestados han usado IA en el trabajo de manera inapropiada, y el 63% dice que ha visto a otros empleados usando IA de manera inapropiada. Esos casos varían, desde usar IA para chatear en pruebas internas de evaluación del desempeño de la empresa hasta introducir datos sensibles de la compañía en herramientas de IA de terceros.
Hacerlo conlleva un riesgo enorme para las empresas, señaló el estudio.
“Este uso invisible o de IA en la sombra no solo agrava los riesgos: también dificulta de forma severa la capacidad de una organización para detectar, gestionar y mitigar riesgos”, señaló el informe.
Las empresas se enfrentan a una ilusión impulsada por la IA de competencia
Los expertos del lugar de trabajo dicen que el cambio real con la IA no es que los empleados de repente se hayan vuelto deshonestos. El cambio es que la IA toma atajos rápido, fácilmente y de manera invisible.
“Antes de la IA, ocultar un trabajo deficiente era más difícil”, dijo Zahra Timsah, líder de gobernanza de IA y CEO de i-GENTIC AI, una plataforma de cumplimiento de IA agentica. “Ahora un empleado puede generar un informe pulido en minutos y los gerentes asumen competencia. Esto crea la ilusión de productividad”.
Por ejemplo, Timsah cita a un empleado que usa IA para generar análisis y lo presenta con confianza, pero no puede defenderlo cuando se le cuestiona. “La empresa toma decisiones basadas en trabajos que nadie realmente entiende”, añadió Timsah. “La mayor amenaza no es hacer trampas en los exámenes. Es que las empresas pierden en silencio la inteligencia interna mientras creen que sus equipos están pensando de forma independiente”.
Otros altos ejecutivos corporativos dicen que los datos indican que las empresas apenas están viendo la punta del iceberg sobre el uso de IA en la sombra. Considere el panorama completo del estudio de Melbourne:
— El 44% de los trabajadores de EE. UU. usa herramientas de IA sin autorización adecuada,
— el 46% ha subido información sensible de la empresa y propiedad intelectual a plataformas públicas de IA, y el 64% admite que pone menos esfuerzo en su trabajo porque puede apoyarse en IA.
— Más de la mitad, el 57%, comete errores en su trabajo debido al uso de IA sin control, y el 53% está ocultando por completo su uso de IA, presentando contenido generado por IA como si fuera propio.
“No es solo que la gente esté pasando la IA como su propio trabajo; también está envenenando el ‘pozo’ corporativo al depender de basura de IA”, dijo Nick Misner, COO de Cybrary, una plataforma de desarrollo profesional de ciberseguridad con sede en Atlanta. “Mientras la IA acelera la velocidad con la que podemos programar, está introduciendo más deuda y vulnerabilidades de seguridad en la organización”.
Misner señala que esto no es una tendencia aislada; en cambio, es un fallo sistémico de la preparación organizacional.
“Estamos viendo que la adopción de IA supera masivamente la gobernanza”, dijo. “El informe de Gallup sobre el Estado del Lugar de Trabajo Global nos dice que el 79% de la fuerza laboral global está en algún punto entre ‘hacer lo mínimo’ y ‘desconectarse activamente’”.
En consecuencia, cuando entregas a trabajadores desconectados una herramienta poderosa sin una guía significativa, no la van a usar para volverse más productivos. “Van a usarla para hacer el mismo trabajo con menos esfuerzo o, peor aún, para recortar camino de maneras que crean un riesgo organizacional real”, señaló.
La amenaza no se trata solo de hacer trampas en exámenes, aunque en un caso reportado de KPMG Australia de esta semana, 28 empleados fueron sorprendidos usando IA para hacer trampa en exámenes internos, incluido un socio multado con $10,000 por hacer trampa en un examen de ética de la IA.
“Ese ejemplo ilustra perfectamente la ironía”, dijo Misner. “La amenaza más grande es que las organizaciones están volando a ciegas. Si casi la mitad de tu fuerza laboral usa IA de forma inapropiada y ni siquiera lo sabes, tu exposición al riesgo es enorme, desde filtraciones de datos hasta violaciones de cumplimiento y el deterioro de las habilidades que realmente necesita tu gente”.
Sacar el uso malintencionado de la IA de las sombras
El equipo directivo debe dar un paso al frente con propuestas, políticas y sanciones para asegurar que la IA se use de forma ética en sus empresas. Estas estrategias deberían estar en la parte superior de su lista de prioridades.
Aprende del pasado
Hay un buen argumento para sostener que las cifras de Melbourne/KPMG no son exclusivas de la IA.
“Vimos patrones similares cuando Internet y los motores de búsqueda entraron por primera vez en el lugar de trabajo”, dijo Joe Schaeppi, cofundador de Solsten, una empresa de participación de usuarios basada en IA en Minneapolis, Minn. “Cada vez que aparece una herramienta nueva y poderosa, el mal uso es inevitable; así es la naturaleza humana”.
A medida que crece la adopción de IA, Schaeppi dijo que la gerencia probablemente verá más experimentación y comportamientos en la zona gris, pero como con todas las tecnologías, la gobernanza y las barreras de protección evolucionan. “Empresas como Anthropic ya están adoptando un enfoque más orientado a la empresa, incorporando reglas y restricciones para reducir el riesgo a medida que la tecnología madura”, señaló. “Si eres una empresa y ves un comportamiento inapropiado en cualquier herramienta, la preocupación debe ponerse en la cultura y en cómo haces cumplir políticas y procedimientos”.
Apuesta por la supervisión humana
Para mantener bajo control las interacciones con IA en el lugar de trabajo, la gerencia debe encargar a un equipo de análisis de IA que revise el acceso de datos y los permisos de la empresa para cualquier tipo de datos que sea primordial para el futuro del negocio.
“Después, los conjuntos de datos sintéticos no son nada nuevo y son una gran forma de seguir modelando resultados aprovechando tus datos”, dijo. “Además, siempre involucraría a un humano en el circuito antes de que algo salga a producción. Varias empresas aún han encontrado que los números de reportes de IA están mal. Ya sea asegurar que el mensaje siga alineado con la marca o que sea apropiado, es importante mantener a un humano en el circuito”.
Deja reglas de uso de IA completamente claras
Las empresas también deberían proporcionar herramientas internas de IA aprobadas y establecer una sola regla clara. Nunca pongas información confidencial o regulada en sistemas públicos de IA.
“También deberían monitorear por dónde fluye la información sensible, especialmente copiar y pegar en herramientas de IA, que ahora es una gran zona ciega que la mayoría de las empresas pasa completamente por alto”, dijo Timsah. “Lo más importante es que las empresas deben cambiar la forma en que evalúan a los empleados”.
Timsah también alienta a los líderes de la empresa a evitar premiar únicamente la salida pulida. “Exige que los empleados expliquen su razonamiento y demuestren comprensión”, dijo. “La IA puede generar respuestas, pero no puede reemplazar la propiedad o la rendición de cuentas”.
La primera política que el equipo de Timsah implementó en i-GENTIC fue simple y clara: los empleados podían usar herramientas de IA aprobadas, pero no podían introducir información confidencial, de clientes, financiera o propietaria en sistemas públicos de IA.
“Nos enfocamos en la claridad, no en la restricción”, señaló. “Esto generó confianza porque el empleado sabía que el uso de IA estaba permitido, pero con límites claros. También construyó rendición de cuentas, porque todos entendían qué estaba seguro y qué no”.
La capacitación interna de la empresa debería centrarse en ejemplos prácticos, no en políticas vagas que nadie lee. Los empleados necesitan entender claramente qué está seguro y qué no.
“Usar IA para reescribir un correo electrónico genérico está bien”, dijo Timsah. “Subir contratos de clientes, datos financieros o información propietaria en una herramienta pública de IA no lo está. Usar IA para generar ideas está bien. Presentar análisis generado por IA que no entiendes como si fuera tu propio trabajo no lo está”.
Cuándo conseguir ayuda de ejecución externa ayuda
El mal uso de IA por parte de empleados se convierte en un asunto legal cuando hay intención y daño.
“Esto incluye filtrar datos confidenciales, robar propiedad intelectual, manipular información financiera o cometer fraude con asistencia de IA”, señaló Timsah. “En ese punto, las empresas pueden involucrar investigadores, reguladores o fuerzas del orden”.
Los responsables de la toma de decisiones de la empresa también deberían saber que la mayoría de los mal usos comienzan como conveniencia, no como intención maliciosa, pero una vez que causa un daño real, exposición financiera o engaño, entra en territorio legal. “La distinción clave es si el mal uso resultó en exposición, pérdida u ocultamiento intencional”, añadió Timsah.
Por último, enfócate en la capacitación
Los expertos dicen que es importante señalar que las organizaciones deben tratar el uso de IA como cualquier otra conducta de alto riesgo y educar a los empleados sobre cómo usarla de forma segura.
Además, al educar a los empleados sobre el uso de IA, la gerencia debe asegurarse de que sepan que usar IA no los exime de responsabilidad.
“Los empleados siguen siendo responsables de garantizar que la información que suben en plataformas de IA sea precisa y que no viole ninguna ley”, dijo Kelsey Szamet, socia de Kingsley Szamet Employment Lawyers. “Los empleados también deben saber que subir información confidencial y propietaria en plataformas de IA puede hacer que dicha información quede expuesta permanentemente en la plataforma”.
Desde la perspectiva del empleo, la consistencia es clave. Si a un empleado se le despide por mal uso de IA y a otro no, eso crea problemas de responsabilidad por discriminación y represalias. “Cuanto más sólida sea la política y el proceso de capacitación, menor es el riesgo de litigio”, dijo Szamet.
La preocupación más grande no es que los empleados vayan a usar IA. La usarán. “La preocupación es que las empresas aborden esto antes de que se convierta en un problema”, añadió Szamet.
Términos y Política de Privacidad
Panel de Privacidad
Más información