Trí tuệ nhân tạo chủ động (AI) hứa hẹn sẽ thay đổi cách thức hoạt động của các tổ chức. Không giống như các công cụ AI trước đây được thiết kế để tóm tắt tài liệu hoặc tạo nội dungTrí tuệ nhân tạo chủ động (AI) hứa hẹn sẽ thay đổi cách thức hoạt động của các tổ chức. Không giống như các công cụ AI trước đây được thiết kế để tóm tắt tài liệu hoặc tạo nội dung

Laura I. Harder: Cách Chuẩn Bị Hội Đồng Quản Trị Đối Phó Với Rủi Ro Bảo Mật Của AI Tác Nhân

2026/03/19 13:28
Đọc trong 9 phút
Đối với phản hồi hoặc thắc mắc liên quan đến nội dung này, vui lòng liên hệ với chúng tôi qua crypto.news@mexc.com

Trí tuệ nhân tạo tự chủ (AI Agent) hứa hẹn sẽ thay đổi cách thức hoạt động của các tổ chức. Không giống như các công cụ AI trước đây được thiết kế để tóm tắt tài liệu hoặc tạo nội dung, các hệ thống này có thể hoạt động tự chủ, thực thi nhiệm vụ và tương tác với các hệ thống doanh nghiệp. Đối với các ban quản trị giám sát rủi ro công nghệ, sự thay đổi đó tạo ra một danh mục mối lo ngại bảo mật hoàn toàn khác biệt. Laura I. Harder, Phó Chủ tịch Hiệp hội Bảo mật Hệ thống Thông tin (ISSA) Quốc tế và là sĩ quan tấn công mạng tại Lực lượng Dự bị Không quân Hoa Kỳ, tin rằng nhiều nhà lãnh đạo đánh giá thấp tốc độ nhanh chóng mà những rủi ro đó có thể hiện thực hóa. "Rủi ro đối với các tổ chức thực sự đến từ việc có quá nhiều quyền tự chủ," Harder nói. "AI Agent có thể thay đổi quyền hạn, thay đổi chức năng và tạo ra các hành động mà có thể bạn không mong đợi." Khi các tổ chức chuyển từ thử nghiệm AI sang vận hành các AI Agent tự chủ, các ban quản trị phải hành động nhanh chóng không kém để thiết lập các cấu trúc quản trị, hàng rào bảo vệ và cơ chế giám sát có khả năng quản lý các hệ thống có thể đưa ra quyết định và hành động mà không cần sự can thiệp của con người.

AI Agent Thay Đổi Phương Trình Bảo Mật

Trong vài năm qua, hầu hết các triển khai AI của doanh nghiệp đều tập trung vào các công cụ phân tích thông tin hoặc tạo đầu ra. Những khả năng đó đã đưa ra các mối lo ngại về quyền riêng tư và tính toàn vẹn dữ liệu, nhưng bản thân các hệ thống hiếm khi thực thi các hành động bên trong môi trường doanh nghiệp. AI Agent thay đổi động lực đó. Thay vì chỉ đưa ra các khuyến nghị hoặc lọc hồ sơ, các AI Agent có thể kích hoạt quy trình làm việc, truy cập cơ sở dữ liệu và tương tác với các hệ thống phần mềm trên toàn tổ chức. "Bây giờ nó không chỉ đưa ra lời khuyên. Nó đang hành động và hoạt động độc lập," Harder nói.

Laura I. Harder: Cách Chuẩn Bị Cho Ban Quản Trị Đối Với Rủi Ro Bảo Mật Của AI Agent

Sự tự chủ đó tạo ra những thách thức bảo mật mới bởi vì các hệ thống có thể bị thao túng. Giống như con người có thể rơi vào bẫy kỹ thuật xã hội, AI Agent có thể bị lừa thực thi các nhiệm vụ không mong muốn thông qua các kỹ thuật như chèn lệnh prompt. Harder chỉ ra các ví dụ thực tế nơi các hướng dẫn ẩn được nhúng trong đầu vào làm thay đổi cách AI hoạt động. "AI sẽ hành xử dựa trên các hướng dẫn mà nó nhận được," cô nói. Những mối đe dọa này trở nên phức tạp hơn do tính chất mờ đục của nhiều mô hình AI. Các tổ chức thường dựa vào các công cụ bên thứ ba mà không có đầy đủ khả năng hiển thị về cách các quyết định được đưa ra. Kết quả là một hệ thống có khả năng thực thi các hành động trong khi hoạt động theo những cách khó dự đoán.

Rủi Ro Ẩn Mà Ban Quản Trị Thường Bỏ Qua

Khi các ban quản trị bắt đầu đánh giá AI Agent, Harder cho biết lỗ hổng bị đánh giá thấp nhất là quyền hạn. Mỗi AI Agent hoạt động trong một mạng lưới các hệ thống, nguồn dữ liệu và ứng dụng. Mức độ truy cập được cấp cho các hệ thống đó xác định thiệt hại tiềm tàng nếu có sự cố xảy ra. Harder mô tả điều này là "bán kính tác động" của hệ thống. Một AI Agent được cấp quyền hạn rộng có thể tương tác với nhiều dữ liệu và cơ sở hạ tầng hơn nhiều so với những gì các nhà lãnh đạo nhận ra.

Một ví dụ phổ biến xảy ra khi các hệ thống AI được kết nối với các công cụ cộng tác nội bộ hoặc kho tài liệu. Nếu một thư mục được chia sẻ rộng rãi chứa thông tin nhạy cảm, một AI Agent hoạt động trong môi trường đó sẽ có thể truy cập và sử dụng dữ liệu đó trong phạm vi quyền hạn được cấp cho người dùng, tài khoản dịch vụ hoặc tích hợp mà nó chạy. Trên thực tế, điều đó có nghĩa là AI Agent có thể hiển thị hoặc hành động dựa trên thông tin có thể đã được truy cập rộng rãi nhưng không được giám sát tích cực.

Các dịch vụ AI của bên thứ ba đưa ra một lớp rủi ro bổ sung. "Nếu bạn đang sử dụng một mô hình, thông tin nào mà mô hình đó có quyền truy cập, và thông tin của bạn có thể được sử dụng để đào tạo mô hình đó không?" Harder hỏi. Không có kiểm soát rõ ràng, thông tin độc quyền, sở hữu trí tuệ hoặc dữ liệu khách hàng nhạy cảm có thể vô tình rời khỏi tổ chức thông qua các tương tác AI.

Xây Dựng Quản Trị Có Thể Theo Kịp AI

Quản trị AI phải được coi là một chương trình có cấu trúc chứ không phải là một phần bổ sung công nghệ. Các tổ chức nên bắt đầu bằng việc thành lập một ban quản trị AI chuyên trách, thường được mô hình hóa theo các ủy ban quản trị quyền riêng tư hoặc rủi ro hiện có. Nhóm đó nên áp dụng các khung đã được thiết lập như NIST AI Risk Management Framework hoặc các tiêu chuẩn quốc tế như ISO 42001. "Có quản trị AI và bảo vệ AI không chỉ là một sản phẩm mà bạn có thể mua," cô nói.

Các khung này cung cấp hướng dẫn về chính sách, đánh giá rủi ro và kiểm soát hoạt động. Nhưng chúng vẫn yêu cầu các tổ chức xác định cách AI sẽ hoạt động trong môi trường của họ và dữ liệu nào nó sẽ được phép truy cập. "Bạn cần các chính sách, quy trình và danh mục kiểm kê," Harder nói. "Những phần đó sẽ giúp xây dựng cơ sở hạ tầng mà các nhóm của bạn có thể làm việc." Một thực hành đang nổi lên là tạo ra một "danh mục vật liệu AI" liệt kê mọi công cụ AI được sử dụng bên trong tổ chức, các hệ thống mà nó kết nối và dữ liệu nào nó có thể truy cập. Không có khả năng hiển thị đó, các tổ chức không thể hiểu đầy đủ mức độ tiếp xúc được tạo ra bởi các hệ thống tự chủ tương tác với cơ sở hạ tầng doanh nghiệp.

Hàng Rào Bảo Vệ Ngăn AI Hoạt Động Ngoài Tầm Kiểm Soát

Ngay cả khi đã có các cấu trúc quản trị, các hệ thống AI Agent yêu cầu các biện pháp bảo vệ kỹ thuật hạn chế cách chúng hoạt động. Chiến lược hiệu quả nhất là thiết kế kiểm soát bảo mật ngay từ đầu. Các hệ thống ban đầu nên được phát triển bên trong môi trường sandbox đóng, được kiểm soát bằng cách sử dụng dữ liệu thử nghiệm (không phải dữ liệu sản xuất) và đặc quyền hạn chế. "Khi bạn đang xây dựng hệ thống AI Agent của mình, bạn nên làm điều đó trong một sandbox," cô nói. "Đó là một môi trường được kiểm soát nơi các hệ thống tổng hợp có thể hoạt động với rủi ro thấp và không có đặc quyền."

Kiểm tra cũng phải bao gồm red teaming, nơi các chuyên gia bảo mật cố gắng phá vỡ hệ thống hoặc thao túng hành vi của nó. Những bài tập này phơi bày các lỗ hổng bảo mật trước khi các hệ thống được triển khai vào môi trường sản xuất. "Có con người trong vòng lặp đảm bảo rằng nếu và khi công cụ AI của bạn quyết định đưa ra một quyết định mà có thể bạn không muốn, sẽ có một số hạn chế nào đó," Harder nói. Các kỹ thuật cách ly cũng có thể hạn chế rủi ro. Trong một số kiến trúc, các AI Agent được chứa bên trong các máy ảo nơi các chính sách hạn chế các lệnh mà chúng có thể thực thi và các hệ thống mà chúng có thể truy cập.

Giám Sát Của Ban Quản Trị Cuối Cùng Là Quan Trọng

Đối với các ban quản trị, sự gia tăng của AI Agent là một thách thức về quản trị và trách nhiệm giải trình và Harder nhấn mạnh rằng các tổ chức vẫn chịu trách nhiệm về các hành động mà hệ thống AI của họ thực hiện. "Bạn không thể quay lại và nói, 'Tôi không biết nó có thể làm điều này,'" cô nói. "Bạn phải thực hiện sự siêng năng của mình." Trách nhiệm đó mang cả ý nghĩa pháp lý và tín thác. Các ban quản trị phải đảm bảo rằng các công nghệ tự chủ được triển khai với sự giám sát rõ ràng, quyền hạn bị hạn chế và giám sát liên tục. "Không kết nối các AI Agent với các công cụ có đặc quyền cho đến khi bạn có thể chứng minh rằng nó có quyền hạn bị hạn chế, các điểm kiểm tra của con người và giám sát," Harder nói. Khi AI Agent tiếp tục chuyển từ thử nghiệm sang hoạt động cốt lõi, các tổ chức thành công sẽ là những tổ chức coi quản trị và bảo mật là các yêu cầu nền tảng chứ không phải là suy nghĩ muộn màng.

Theo dõi Laura I. Harder trên LinkedIn để biết thêm thông tin chi tiết.

Bình luận
Cơ hội thị trường
Logo The AI Prophecy
Giá The AI Prophecy(ACT)
$0.01367
$0.01367$0.01367
+1.25%
USD
Biểu đồ giá The AI Prophecy (ACT) theo thời gian thực
Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ crypto.news@mexc.com để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.