Cuộc chiến an ninh AI: Liệu Google Cloud có thể chống lại các mối đe dọa trong tương lai?

Tin tức AI - 28/08/2025 18:02:56

An ninh AI của Google Cloud đối mặt với thử thách cuối cùng khi những kẻ tấn công sử dụng các công cụ tương tự. Mark Johnston thảo luận về Project Zero, Model Armor và thế khó của bên phòng thủ.

Trong văn phòng hiện đại của Google tại Block 80, Tầng 3, Singapore, Mark Johnston đã đứng trước một căn phòng đầy các nhà báo công nghệ lúc 1:30 chiều với một lời thừa nhận đáng kinh ngạc: sau năm thập kỷ phát triển an ninh mạng, những người phòng thủ vẫn đang thua cuộc chiến. “Trong 69% các sự cố ở Nhật Bản và Châu Á Thái Bình Dương, các tổ chức đã được các thực thể bên ngoài thông báo về việc bị xâm nhập,” Giám đốc Văn phòng CISO của Google Cloud cho Châu Á Thái Bình Dương tiết lộ, slide trình bày của ông hiển thị một thống kê đáng báo động – hầu hết các công ty thậm chí không thể phát hiện khi họ bị xâm nhập.

Điều diễn ra trong buổi tọa đàm kéo dài một giờ mang tên “An ninh mạng trong kỷ nguyên AI” là một đánh giá trung thực về cách các công nghệ AI của Google Cloud đang cố gắng đảo ngược hàng thập kỷ thất bại trong phòng thủ, ngay cả khi các công cụ trí tuệ nhân tạo tương tự trao quyền cho những kẻ tấn công với những khả năng chưa từng có.

Mark Johnston trình bày dữ liệu M-Trends của Mandiant cho thấy các thất bại trong phát hiện xuyên suốt Châu Á Thái Bình Dương

Bối cảnh lịch sử: 50 năm thất bại trong phòng thủ

Cuộc khủng hoảng này không mới. Johnston đã truy ngược vấn đề về lời nhận định năm 1972 của nhà tiên phong an ninh mạng James P. Anderson rằng “các hệ thống mà chúng ta sử dụng thực sự không tự bảo vệ được mình” – một thách thức đã tồn tại dai dẳng bất chấp hàng thập kỷ tiến bộ công nghệ. “Điều James P. Anderson nói vào năm 1972 vẫn đúng cho đến ngày nay,” Johnston nói, nhấn mạnh cách các vấn đề bảo mật cơ bản vẫn chưa được giải quyết ngay cả khi công nghệ phát triển.

Sự tồn tại dai dẳng của các lỗ hổng cơ bản làm trầm trọng thêm thách thức này. Dữ liệu tình báo về mối đe dọa của Google Cloud tiết lộ rằng “hơn 76% các vụ xâm nhập bắt đầu từ những điều cơ bản” – lỗi cấu hình và xâm phạm thông tin đăng nhập đã gây khó khăn cho các tổ chức trong nhiều thập kỷ. Johnston dẫn chứng một ví dụ gần đây: “Tháng trước, một sản phẩm rất phổ biến mà hầu hết các tổ chức đã từng sử dụng, Microsoft SharePoint, cũng có một cái mà chúng tôi gọi là lỗ hổng zero-day… và trong thời gian đó, nó đã bị tấn công liên tục và bị lạm dụng.”

Cuộc chạy đua vũ trang AI: Bên phòng thủ so với bên tấn công

Hình ảnh minh họa của Google Cloud về “Thế khó của bên phòng thủ” cho thấy sự mất cân bằng về quy mô giữa những kẻ tấn công và những người phòng thủ

Kevin Curran, thành viên cấp cao của IEEE và giáo sư về an ninh mạng tại Đại học Ulster, mô tả bối cảnh hiện tại là “một cuộc chạy đua vũ trang đầy rủi ro” nơi cả các đội an ninh mạng và các tác nhân đe dọa đều sử dụng các công cụ AI để vượt qua nhau. “Đối với những người phòng thủ, AI là một tài sản quý giá,” Curran giải thích trong một ghi chú truyền thông. “Các doanh nghiệp đã triển khai AI tạo sinh và các công cụ tự động hóa khác để phân tích lượng lớn dữ liệu trong thời gian thực và xác định các điểm bất thường.”

Tuy nhiên, các công nghệ tương tự lại mang lại lợi ích cho những kẻ tấn công. “Đối với những kẻ tấn công, AI có thể hợp lý hóa các cuộc tấn công lừa đảo, tự động hóa việc tạo phần mềm độc hại và giúp quét mạng để tìm lỗ hổng,” Curran cảnh báo. Bản chất lưỡng dụng của AI tạo ra cái mà Johnston gọi là “Thế khó của bên phòng thủ.”

Các sáng kiến AI của Google Cloud nhằm mục đích nghiêng cán cân này về phía những người phòng thủ. Johnston lập luận rằng “AI mang lại cơ hội tốt nhất để lật ngược Thế khó của bên phòng thủ, và nghiêng cán cân không gian mạng để trao cho những người phòng thủ lợi thế quyết định trước những kẻ tấn công.” Cách tiếp cận của công ty tập trung vào điều họ gọi là “vô số trường hợp sử dụng AI tạo sinh trong phòng thủ,” bao gồm phát hiện lỗ hổng, tình báo về mối đe dọa, tạo mã an toàn và phản ứng sự cố.

Big Sleep của Project Zero: AI tìm ra những gì con người bỏ lỡ

Một trong những ví dụ hấp dẫn nhất của Google về phòng thủ được hỗ trợ bởi AI là sáng kiến “Big Sleep” của Project Zero, sử dụng các mô hình ngôn ngữ lớn để xác định các lỗ hổng trong mã thực tế. Johnston đã chia sẻ các số liệu ấn tượng: “Big Sleep đã tìm thấy một lỗ hổng trong một thư viện mã nguồn mở bằng cách sử dụng các công cụ AI tạo sinh – lần đầu tiên chúng tôi tin rằng một lỗ hổng được tìm thấy bởi một dịch vụ AI.”

Sự phát triển của chương trình cho thấy khả năng ngày càng tăng của AI. “Tháng trước, chúng tôi đã thông báo tìm thấy hơn 20 lỗ hổng trong các gói khác nhau,” Johnston lưu ý. “Nhưng hôm nay, khi tôi nhìn vào bảng điều khiển Big Sleep, tôi thấy 47 lỗ hổng trong tháng Tám đã được giải pháp này tìm thấy.”

Sự tiến triển từ phân tích thủ công của con người sang khám phá được hỗ trợ bởi AI thể hiện điều Johnston mô tả là sự chuyển đổi “từ thủ công sang bán tự động” trong các hoạt động bảo mật, nơi “Gemini điều khiển hầu hết các tác vụ trong vòng đời bảo mật một cách nhất quán, ủy quyền các tác vụ mà nó không thể tự động hóa với độ tin cậy hoặc độ chính xác đủ cao.”

Nghịch lý tự động hóa: Hứa hẹn và hiểm nguy

Lộ trình của Google Cloud hình dung sự tiến triển qua bốn giai đoạn: Thủ công, Hỗ trợ, Bán tự động và Hoạt động bảo mật tự động hoàn toàn. Trong giai đoạn bán tự động, các hệ thống AI sẽ xử lý các tác vụ thường ngày đồng thời chuyển các quyết định phức tạp cho các nhà điều hành con người. Giai đoạn tự động hoàn toàn cuối cùng sẽ chứng kiến AI “thúc đẩy vòng đời bảo mật đến những kết quả tích cực thay mặt người dùng.”

Lộ trình của Google Cloud để phát triển từ hoạt động bảo mật AI thủ công sang tự động hoàn toàn

Tuy nhiên, việc tự động hóa này lại tạo ra những lỗ hổng mới. Khi được hỏi về rủi ro của việc quá phụ thuộc vào các hệ thống AI, Johnston thừa nhận thách thức: “Có tiềm năng dịch vụ này có thể bị tấn công và thao túng. Hiện tại, khi bạn thấy các công cụ mà những tác nhân này được đưa vào, không có một khuôn khổ thực sự tốt để cấp quyền rằng đó là công cụ thực tế chưa bị can thiệp.”

Curran cũng bày tỏ mối lo ngại này: “Rủi ro đối với các công ty là các đội an ninh của họ sẽ trở nên quá phụ thuộc vào AI, có khả năng bỏ qua phán đoán của con người và khiến hệ thống dễ bị tấn công. Vẫn cần có một ‘phi công phụ’ là con người và các vai trò cần được xác định rõ ràng.”

Triển khai trong thế giới thực: Kiểm soát bản chất khó đoán của AI

Cách tiếp cận của Google Cloud bao gồm các biện pháp bảo vệ thực tế để giải quyết một trong những đặc điểm có vấn đề nhất của AI: xu hướng tạo ra các phản hồi không liên quan hoặc không phù hợp. Johnston đã minh họa thách thức này bằng một ví dụ cụ thể về sự không phù hợp ngữ cảnh có thể tạo ra rủi ro kinh doanh.

“Nếu bạn có một cửa hàng bán lẻ, bạn không nên nhận lời khuyên y tế thay vào đó,” Johnston giải thích, mô tả cách các hệ thống AI có thể bất ngờ chuyển sang các lĩnh vực không liên quan. “Đôi khi những công cụ này có thể làm như vậy.” Sự khó lường này thể hiện một trách nhiệm pháp lý đáng kể đối với các doanh nghiệp triển khai hệ thống AI hướng tới khách hàng, nơi các phản hồi lạc đề có thể gây nhầm lẫn cho khách hàng, làm tổn hại danh tiếng thương hiệu hoặc thậm chí tạo ra rủi ro pháp lý.

Công nghệ Model Armor của Google giải quyết vấn đề này bằng cách hoạt động như một lớp lọc thông minh. “Việc có các bộ lọc và sử dụng khả năng của chúng tôi để kiểm tra sức khỏe các phản hồi đó cho phép một tổ chức có được sự tự tin,” Johnston lưu ý. Hệ thống sàng lọc đầu ra của AI để tìm thông tin nhận dạng cá nhân, lọc nội dung không phù hợp với ngữ cảnh kinh doanh và chặn các phản hồi có thể “lệch thương hiệu” so với trường hợp sử dụng dự kiến của tổ chức.

Công ty cũng giải quyết mối lo ngại ngày càng tăng về việc triển khai AI bóng tối (shadow AI). Các tổ chức đang phát hiện hàng trăm công cụ AI trái phép trong mạng lưới của họ, tạo ra những lỗ hổng bảo mật lớn. Các công nghệ bảo vệ dữ liệu nhạy cảm của Google cố gắng giải quyết vấn đề này bằng cách quét trên nhiều nhà cung cấp đám mây và hệ thống tại chỗ.

Thách thức về quy mô: Hạn chế ngân sách so với các mối đe dọa ngày càng tăng

Johnston xác định hạn chế ngân sách là thách thức chính mà các CISO ở Châu Á Thái Bình Dương phải đối mặt, xảy ra đúng vào thời điểm các tổ chức đối mặt với các mối đe dọa mạng ngày càng tăng. Nghịch lý rất rõ ràng: khi số lượng tấn công tăng lên, các tổ chức lại thiếu nguồn lực để phản ứng đầy đủ.

“Chúng tôi xem xét các số liệu thống kê và khách quan mà nói, chúng tôi đang thấy nhiều ‘nhiễu’ hơn – có thể không quá tinh vi, nhưng nhiều ‘nhiễu’ hơn đồng nghĩa với nhiều chi phí chung hơn, và điều đó tốn kém hơn để xử lý,” Johnston nhận xét. Sự gia tăng tần suất tấn công, ngay cả khi các cuộc tấn công riêng lẻ không nhất thiết phải tiên tiến hơn, tạo ra một sự cạn kiệt nguồn lực mà nhiều tổ chức không thể duy trì.

Áp lực tài chính làm tăng thêm sự phức tạp của bối cảnh an ninh vốn đã phức tạp. “Họ đang tìm kiếm các đối tác có thể giúp đẩy nhanh điều đó mà không cần phải thuê thêm 10 nhân viên hoặc có ngân sách lớn hơn,” Johnston giải thích, mô tả cách các nhà lãnh đạo an ninh đối mặt với áp lực ngày càng tăng để làm nhiều hơn với các nguồn lực hiện có trong khi các mối đe dọa nhân lên.

Những câu hỏi quan trọng vẫn còn

Mặc dù khả năng hứa hẹn của Google Cloud AI, một số câu hỏi quan trọng vẫn còn tồn tại. Khi được chất vấn về việc liệu bên phòng thủ có thực sự đang thắng cuộc chạy đua vũ trang này hay không, Johnston thừa nhận: “Chúng tôi chưa thấy các cuộc tấn công mới lạ sử dụng AI cho đến nay,” nhưng lưu ý rằng những kẻ tấn công đang sử dụng AI để mở rộng quy mô các phương pháp tấn công hiện có và tạo ra “một loạt các cơ hội trong một số khía cạnh của cuộc tấn công.”

Các tuyên bố về hiệu quả cũng cần được xem xét kỹ lưỡng. Trong khi Johnston trích dẫn sự cải thiện 50% về tốc độ viết báo cáo sự cố, ông thừa nhận rằng độ chính xác vẫn là một thách thức: “Chắc chắn có những sự không chính xác. Nhưng con người cũng mắc lỗi.” Lời thừa nhận này làm nổi bật những hạn chế hiện tại của việc triển khai an ninh AI.

Hướng tới tương lai: Chuẩn bị hậu lượng tử

Ngoài các triển khai AI hiện tại, Google Cloud đã chuẩn bị cho sự thay đổi mô hình tiếp theo. Johnston tiết lộ rằng công ty đã “triển khai mã hóa hậu lượng tử giữa các trung tâm dữ liệu của chúng tôi theo mặc định ở quy mô lớn,̶D; định vị cho các mối đe dọa điện toán lượng tử trong tương lai có thể làm cho mã hóa hiện tại trở nên lỗi thời.

Phán quyết: Cần lạc quan thận trọng

Việc tích hợp AI vào an ninh mạng đại diện cho cả cơ hội chưa từng có và rủi ro đáng kể. Trong khi các công nghệ AI của Google Cloud thể hiện khả năng thực sự trong phát hiện lỗ hổng, phân tích mối đe dọa và phản ứng tự động, thì các công nghệ tương tự lại trao quyền cho những kẻ tấn công với các khả năng nâng cao về trinh sát, kỹ thuật xã hội và né tránh.

Đánh giá của Curran đưa ra một góc nhìn cân bằng: “Với tốc độ phát triển nhanh chóng của công nghệ, các tổ chức sẽ phải áp dụng một chính sách an ninh mạng toàn diện và chủ động hơn nếu họ muốn đi trước những kẻ tấn công. Suy cho cùng, các cuộc tấn công mạng là vấn đề ‘khi nào’, chứ không phải ‘liệu có’, và AI sẽ chỉ làm tăng tốc số lượng cơ hội có sẵn cho các tác nhân đe dọa.”

Thành công của an ninh mạng được hỗ trợ bởi AI cuối cùng không phụ thuộc vào bản thân công nghệ, mà vào cách các tổ chức triển khai các công cụ này một cách chu đáo, đồng thời duy trì sự giám sát của con người và giải quyết các vấn đề vệ sinh bảo mật cơ bản. Như Johnston đã kết luận, “Chúng ta nên áp dụng những điều này theo các phương pháp tiếp cận rủi ro thấp,̶D; nhấn mạnh sự cần thiết của việc triển khai có tính toán thay vì tự động hóa hoàn toàn.

Cuộc cách mạng AI trong an ninh mạng đang diễn ra, nhưng chiến thắng sẽ thuộc về những người có thể cân bằng giữa đổi mới và quản lý rủi ro thận trọng – chứ không phải những người chỉ đơn thuần triển khai các thuật toán tiên tiến nhất.

Nguồn: Sưu tầm

Tin tức AI

Xem tất cả