Đang theo dõi quá trình này diễn ra trong các tổ chức thực tế, và thành thật mà nói, hiện tại nó khá rối rắm.



Nhóm marketing của bạn đang đổ dữ liệu khách hàng vào ChatGPT miễn phí. Các kỹ sư của bạn dán mã nguồn độc quyền vào các trình gỡ lỗi AI ngẫu nhiên. Và không ai thông báo cho bộ phận IT. Các nghiên cứu cho thấy 71% nhân viên đang làm vậy, và 57% trong số đó đang cố tình che giấu khỏi các đội an ninh.

Điều khiến tôi thức trắng đêm là: không phải do ác ý. Những người này chỉ đơn giản là cố gắng làm việc nhanh hơn. Vấn đề là các công cụ AI miễn phí hoạt động theo một mô hình hoàn toàn khác so với phần mềm doanh nghiệp. Khi bạn dán dữ liệu vào phiên bản miễn phí, bạn không chỉ nhận được sự trợ giúp—bạn đang cung cấp dữ liệu cho pipeline huấn luyện. Mã nguồn đó, danh sách khách hàng đó, tài liệu chiến lược đó? Giờ đây đã trở thành một phần của trọng số mô hình. Bạn không thể xóa nó đi. Bạn không thể quên nó.

Nhớ Samsung năm 2023 chứ? Các kỹ sư dán mã nguồn nhạy cảm vào ChatGPT để tối ưu hóa. Mã đó đã bị hấp thụ vào dữ liệu huấn luyện. Đã xong.

Nhưng vấn đề còn tồi tệ hơn nữa. Nếu nhóm của bạn xử lý dữ liệu khách hàng châu Âu qua một công cụ AI của Mỹ mà không có thỏa thuận phù hợp, bạn có thể đang vi phạm GDPR ngay lúc này. Và khi nhân viên dùng AI chưa được kiểm duyệt để tạo báo cáo hoặc sản phẩm cho khách hàng mà mô hình chỉ... bịa ra? Đột nhiên bạn đang đối mặt với thông tin sai lệch được trình bày như sự thật với khách hàng. Đó không chỉ là vấn đề kỹ thuật—đây là thảm họa uy tín đang chờ xảy ra. AI không phân biệt được giữa chính xác và giả tạo, và người dùng cũng vậy.

Vấn đề thực sự là khoảng trống quản trị mà tôi gọi là "khoảng cách quản trị". Cấm các công cụ này không hiệu quả. Nó chỉ đẩy việc sử dụng ngầm xuống dưới. Bạn cần một cách tiếp cận khác.

Về mặt kỹ thuật, bạn có thể phát hiện một số điều này. Giám sát DNS bắt các lưu lượng truy cập đến OpenAI, Anthropic, Midjourney. Quy tắc DLP có thể cảnh báo khi mã hoặc PII bị dán vào giao diện chat. Nhưng bộ phát hiện tốt nhất? Chính nhân viên của bạn. Họ sẽ nói cho bạn biết họ đang dùng gì nếu họ không sợ bị trừng phạt.

Dưới đây là khung làm việc thực sự hiệu quả:

Đầu tiên, công bố danh sách cho phép/ cấm rõ ràng. Trung thực nếu bạn chưa có công cụ phê duyệt. Triển khai quy tắc DLP cho các tên miền nguy cơ cao. Gửi thông báo từ lãnh đạo rằng AI hữu ích, nhưng các công cụ miễn phí rất nguy hiểm.

Thứ hai, xây dựng chính sách chính thức với ba cấp độ: Cho phép (các công cụ doanh nghiệp đã được kiểm duyệt), Giám sát (các công cụ rủi ro thấp cho dữ liệu không nhạy cảm), Cấm (các công cụ huấn luyện trên dữ liệu của bạn hoặc thiếu tiêu chuẩn bảo mật). Đào tạo nhóm về những gì quan trọng đối với vai trò của họ.

Thứ ba, triển khai kiểm soát trình duyệt để hạn chế các tên miền AI không được phép. Xem xét các cổng AI có thể chỉnh sửa PII theo thời gian thực trước khi dữ liệu đến nhà cung cấp mô hình.

Thứ tư, thành lập nhóm quản trị AI để họp định kỳ xem xét các công cụ mới và rủi ro. Làm cho nhân viên dễ dàng đề xuất công cụ mới để quản trị không trở thành nút thắt cổ chai.

Nhưng điều quan trọng là: tất cả những điều này sẽ không hiệu quả nếu bạn không cung cấp cho nhân viên thứ gì đó tốt hơn. Họ dùng công cụ miễn phí vì nó hiệu quả. Vì nó tiện lợi.

Mô hình BYOK (Bring Your Own Key) rất phù hợp ở đây. Tự mang Khóa của bạn nghĩa là tổ chức của bạn mua quyền truy cập API trực tiếp từ các nhà cung cấp như OpenAI hoặc Anthropic, rồi tích hợp vào nền tảng cung cấp cho nhân viên một giao diện duy nhất để truy cập nhiều mô hình. Bạn kiểm soát khóa API, dữ liệu sẽ chảy theo điều khoản của bạn. Không huấn luyện trên dữ liệu của bạn. Toàn quyền kiểm soát. Tuân thủ đầy đủ.

Đó là cách thực sự ngăn chặn AI ngầm. Không phải bằng cách cấm nó. Mà bằng cách làm cho con đường an toàn trở thành con đường dễ nhất.

Nhân viên dán dữ liệu vào ChatGPT không cố tình rò rỉ IP. Họ chỉ cố hoàn thành công việc của mình. Vấn đề không phải là không tuân thủ—mà là thị trường đang di chuyển nhanh hơn quy trình mua sắm của doanh nghiệp. Sửa điều đó, và bạn sửa được rủi ro.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim