Nhân viên đang sử dụng AI theo những cách gây hại. Các công ty có thể đang trong bóng tối

Nhân viên đang sử dụng AI theo những cách gây hại. Các công ty có thể đang không nắm được thông tin

Quartz · China News Service via Getty Images

Brian O’Connell

Thu, February 26, 2026 at 7:00 PM GMT+9 7 min read

Trí tuệ nhân tạo đã tác động vào lực lượng lao động như một trận động đất, và ngày càng, các công ty đang phải đối mặt với các dư chấn sau đó.

Một vấn đề đang nổi lên là sự gia tăng của cái gọi là “AI bóng tối” (shadow AI), khi người lao động sử dụng AI theo những cách mà họ không nên, dù vô tình hay không.

Theo một nghiên cứu gần đây của Đại học Melbourne và KPMG, 47% các chuyên gia nghề nghiệp được khảo sát đã sử dụng AI trong công việc một cách không phù hợp, và 63% cho biết họ đã thấy nhân viên khác sử dụng AI một cách không phù hợp. Những trường hợp này đa dạng, từ việc dùng AI để trò chuyện trên các bài kiểm tra đánh giá hiệu suất nội bộ của công ty cho đến việc đưa dữ liệu nhạy cảm của công ty vào các công cụ AI của bên thứ ba.

Làm như vậy mang lại rủi ro rất lớn cho các công ty, nghiên cứu cho biết.

“Việc sử dụng AI vô hình hay AI bóng tối này không chỉ làm trầm trọng thêm rủi ro – mà còn làm suy giảm nghiêm trọng khả năng của một tổ chức trong việc phát hiện, quản lý và giảm thiểu rủi ro,” báo cáo nêu rõ.

Các công ty đối mặt với ảo giác năng lực do AI dẫn dắt

Các chuyên gia nơi làm việc cho biết sự thay đổi thực sự với AI không phải là việc nhân viên bỗng nhiên trở nên gian dối. Điểm khác là AI cắt góc rất nhanh, dễ dàng và một cách vô hình.

“Trước khi có AI, việc che giấu công việc kém hiệu quả khó hơn,” Zahra Timsah, một lãnh đạo quản trị AI và CEO của i-GENTIC AI (một nền tảng tuân thủ AI dạng tác nhân), cho biết. “Bây giờ, một nhân viên có thể tạo ra một báo cáo đã được mài giũa trong vài phút, và các quản lý cho rằng người đó có năng lực. Điều này tạo ra ảo giác về năng suất.”

Ví dụ, Timsah nêu một trường hợp nhân viên dùng AI để tạo bản phân tích và trình bày một cách tự tin, nhưng không thể bảo vệ khi bị chất vấn. “Công ty đưa ra quyết định dựa trên công việc mà không ai thực sự hiểu,” Timsah nói thêm. “Mối đe dọa lớn nhất không phải là gian lận trong các bài kiểm tra. Mà là các công ty âm thầm đánh mất trí tuệ nội bộ trong khi tin rằng các nhóm của họ đang suy nghĩ độc lập.”

Các giám đốc điều hành cấp cao khác cũng cho rằng dữ liệu cho thấy các công ty hiện chỉ mới thấy phần đầu của tảng băng về việc sử dụng AI bóng tối. Hãy xem bức tranh đầy đủ từ nghiên cứu của Melbourne:

— 44% người lao động ở Mỹ đang sử dụng các công cụ AI mà không được ủy quyền phù hợp,

— 46% đã tải lên thông tin nhạy cảm của công ty và tài sản trí tuệ lên các nền tảng AI công khai, và 64% thừa nhận đã làm ít nỗ lực hơn trong công việc vì có thể dựa vào AI.

— Hơn một nửa, 57%, đang mắc sai lầm trong công việc do việc sử dụng AI không được kiểm soát, và 53% đang che giấu hoàn toàn việc họ dùng AI, trình bày nội dung do AI tạo ra như đó là của chính mình.

“Không chỉ là việc con người biến AI thành công việc của chính họ; họ còn làm hỏng ‘nguồn nước’ của doanh nghiệp bằng cách dựa vào rác thải AI,” Nick Misner, COO của Cybrary (một nền tảng phát triển nghề nghiệp về an ninh mạng có trụ sở tại Atlanta), nói. “Trong khi AI làm tăng tốc độ mà chúng ta có thể viết mã, nó cũng đang đưa thêm nợ nần và các lỗ hổng bảo mật vào tổ chức.”

Câu chuyện tiếp tục  

Misner cho biết đây không phải một xu hướng tách rời; thay vào đó, đó là một sự thất bại có tính hệ thống về mức độ sẵn sàng của tổ chức.

“Chúng tôi đang thấy việc áp dụng AI vượt xa quản trị,” ông nói. “Báo cáo State of the Global Workplace của Gallup cho chúng tôi biết rằng 79% lực lượng lao động toàn cầu nằm đâu đó giữa ‘chỉ làm mức tối thiểu’ và ‘bị rời bỏ chủ động.’”

Do đó, khi bạn trao cho những người lao động đã rời bỏ một công cụ mạnh mẽ mà không có hướng dẫn thực chất, họ sẽ không dùng nó để trở nên hiệu quả hơn. “Họ sẽ dùng nó để làm cùng một công việc với ít nỗ lực hơn, hoặc tệ hơn là cắt góc theo những cách tạo ra rủi ro thực sự cho tổ chức,” ông lưu ý.

Mối đe dọa không chỉ nằm ở việc gian lận trong các bài kiểm tra, mặc dù trong một vụ việc được báo cáo ở KPMG Australia xảy ra trong tuần này, khi 28 nhân viên bị phát hiện sử dụng AI để gian lận trong các kỳ thi nội bộ, bao gồm một đối tác bị phạt 10.000 USD vì gian lận trong một kỳ thi về đạo đức AI.

“Ví dụ đó minh họa hoàn hảo sự mỉa mai,” Misner nói. “Mối đe dọa lớn hơn là các tổ chức đang ‘bay mù.’ Nếu gần một nửa lực lượng lao động của bạn sử dụng AI không phù hợp và bạn thậm chí không biết điều đó, thì mức độ phơi nhiễm rủi ro của bạn là rất lớn, từ rò rỉ dữ liệu đến vi phạm tuân thủ cho đến sự suy giảm các kỹ năng mà người của bạn thực sự cần.”

Loại bỏ việc sử dụng AI xấu xa khỏi bóng tối

Ban điều hành cấp cao (C-suite) phải đưa ra các đề xuất, chính sách và hình phạt để đảm bảo rằng AI đang được sử dụng một cách có đạo đức trong các công ty của họ. Những chiến lược này cần nằm ở đầu danh sách ưu tiên.

Học từ quá khứ

Có một lập luận thuyết phục rằng các con số Melbourne/KPMG không phải là duy nhất đối với AI.

“Chúng tôi đã thấy các mẫu tương tự khi internet và các công cụ tìm kiếm lần đầu đi vào nơi làm việc,” Joe Schaeppi, đồng sáng lập của Solsten (một công ty về tương tác người dùng dựa trên AI tại Minneapolis, Minn.), cho biết. “Mỗi khi một công cụ mới mạnh mẽ xuất hiện, việc lạm dụng là điều không thể tránh khỏi; đó là bản chất con người.”

Khi việc áp dụng AI tăng lên, Schaeppi nói rằng quản lý có khả năng sẽ thấy nhiều thử nghiệm và hành vi thuộc vùng xám hơn, nhưng như với mọi công nghệ, quản trị và các rào chắn sẽ phát triển. “Các công ty như Anthropic đã đang hướng tới cách tiếp cận mang tính doanh nghiệp hơn, xây dựng các quy tắc và ràng buộc để giảm rủi ro khi công nghệ trưởng thành,” ông ghi nhận. “Nếu bạn là một công ty và thấy có hành vi không phù hợp trên bất kỳ công cụ nào, mối lo ngại nên đặt vào văn hóa và cách bạn thực thi các chính sách, quy trình.”

Đi cùng sự giám sát của con người

Để giữ cho các hoạt động AI tại nơi làm việc được kiểm soát, ban quản lý phải giao cho một nhóm phân tích AI nhiệm vụ xem xét quyền truy cập dữ liệu và các quyền (permissions) đối với mọi loại dữ liệu có vai trò tối quan trọng đối với tương lai của doanh nghiệp.

“Tiếp theo, các bộ dữ liệu tổng hợp (synthetic datasets) không có gì mới và là một cách tuyệt vời để vẫn mô hình hóa kết quả trong khi tận dụng dữ liệu của bạn,” ông nói. “Ngoài ra, tôi luôn sẽ có con người tham gia vào vòng lặp trước khi bất cứ thứ gì được đưa vào vận hành. Nhiều công ty vẫn phát hiện các con số báo cáo do AI tạo ra là sai. Dù đó là đảm bảo thông điệp vẫn đúng với thương hiệu hay phù hợp, thì việc giữ con người trong vòng lặp là quan trọng.”

Làm thật rõ ràng về các quy tắc sử dụng AI

Các công ty cũng nên cung cấp các công cụ AI nội bộ đã được phê duyệt và đặt ra một quy tắc rõ ràng duy nhất. Tuyệt đối không đưa thông tin bí mật hoặc được quản lý vào các hệ thống AI công khai.

“Họ cũng nên theo dõi nơi dữ liệu nhạy cảm chảy qua, đặc biệt là việc sao chép-dán vào các công cụ AI, vốn hiện là một ‘điểm mù’ lớn mà hầu hết các công ty hoàn toàn bỏ sót,” Timsah nói. “Quan trọng nhất, các công ty phải thay đổi cách họ đánh giá nhân viên.”

Timsah cũng khuyến khích các lãnh đạo công ty tránh việc khen thưởng chỉ dựa trên đầu ra được đánh bóng. “Hãy yêu cầu nhân viên giải thích lý do của họ và chứng minh sự hiểu biết,” cô nói. “AI có thể tạo ra câu trả lời, nhưng nó không thể thay thế quyền sở hữu hoặc trách nhiệm giải trình.”

Chính sách đầu tiên mà nhóm của Timsah triển khai tại i-GENTIC rất đơn giản và rõ ràng: nhân viên có thể sử dụng các công cụ AI đã được phê duyệt, nhưng họ không được nhập dữ liệu bí mật, của khách hàng, tài chính hoặc thông tin độc quyền vào các hệ thống AI công khai.

“Chúng tôi tập trung vào sự rõ ràng, không phải sự hạn chế,” cô lưu ý. “Điều này tạo ra niềm tin vì nhân viên biết việc sử dụng AI được phép, nhưng vẫn có các ranh giới rõ ràng. Nó cũng xây dựng trách nhiệm giải trình, vì mọi người đều hiểu điều gì an toàn và điều gì không.”

Việc đào tạo trong nội bộ công ty nên tập trung vào các ví dụ thực tế, không phải những chính sách mơ hồ mà không ai đọc. Nhân viên cần hiểu rõ điều gì là an toàn và điều gì không.

“Dùng AI để viết lại một email chung chung là được,” Timsah nói. “Tải lên các hợp đồng của khách hàng, dữ liệu tài chính hoặc thông tin độc quyền vào một công cụ AI công khai thì không. Dùng AI để động não ý tưởng là được. Việc trình bày phần phân tích do AI tạo ra mà bạn không hiểu như đó là công việc của chính mình thì không.”

Khi nào cần đến sự trợ giúp thực thi từ bên ngoài giúp

Việc nhân viên lạm dụng AI trở thành vấn đề pháp lý khi có ý định và gây hại.

“Việc này bao gồm rò rỉ dữ liệu bí mật, đánh cắp tài sản trí tuệ, thao túng thông tin tài chính, hoặc thực hiện gian lận với sự trợ giúp của AI,” Timsah lưu ý. “Tại thời điểm đó, các công ty có thể liên quan đến điều tra viên, cơ quan quản lý, hoặc lực lượng thực thi pháp luật.”

Những người ra quyết định trong công ty cũng nên biết rằng phần lớn các vụ lạm dụng bắt đầu như một sự tiện lợi, không phải ý định xấu, nhưng khi nó gây ra thiệt hại thực sự, rủi ro tài chính hoặc sự lừa dối, thì nó đi vào lãnh thổ pháp lý. “Điểm then chốt là liệu việc lạm dụng đã dẫn đến việc bị phơi nhiễm, mất mát, hay che giấu có chủ ý hay không,” Timsah cho biết thêm.

Cuối cùng, hãy tập trung vào việc đào tạo

Các chuyên gia cho rằng điều quan trọng là phải ghi nhớ rằng các tổ chức nên coi việc sử dụng AI giống như mọi hành vi rủi ro cao khác và hướng dẫn nhân viên cách sử dụng một cách an toàn.

Ngoài ra, khi giáo dục nhân viên về việc sử dụng AI, ban quản lý phải cho họ biết rằng việc dùng AI không khiến họ thoát khỏi trách nhiệm.

“Nhân viên vẫn phải chịu trách nhiệm đảm bảo rằng thông tin họ tải lên trên các nền tảng AI là chính xác và không vi phạm bất kỳ luật nào,” Kelsey Szamet, đối tác tại Kingsley Szamet Employment Lawyers, cho biết. “Nhân viên cũng cần biết rằng việc tải lên thông tin bí mật và độc quyền trên các nền tảng AI có thể khiến những thông tin đó bị phơi nhiễm vĩnh viễn trên nền tảng.”

Xét từ góc độ việc làm, tính nhất quán là điều then chốt. Nếu một nhân viên bị sa thải vì lạm dụng AI và nhân viên khác thì không, điều đó tạo ra các vấn đề về trách nhiệm pháp lý liên quan đến phân biệt đối xử và trả đũa. “Quy trình chính sách và đào tạo vững hơn thì sẽ giảm rủi ro của các vụ kiện tụng,” Szamet nói.

Mối quan ngại lớn hơn không phải là việc nhân viên sẽ sử dụng AI. Họ sẽ. “Mối lo ngại là các công ty sẽ xử lý việc này trước khi nó trở thành một vấn đề,” Szamet nói thêm.

Điều khoản và Chính sách Bảo mật

Bảng điều khiển quyền riêng tư

Thông tin thêm

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim