Tại sao các lãnh đạo an ninh yêu cầu quy định khẩn cấp về AI như DeepSeek
Tin tức AI - 18/08/2025 22:13:46
Sự lo lắng đang gia tăng trong số các CISO tại các trung tâm điều hành an ninh, đặc biệt là xung quanh gã khổng lồ AI Trung Quốc DeepSeek.
Sự lo lắng đang gia tăng trong số các Giám đốc An ninh Thông tin (CISO) tại các trung tâm điều hành an ninh, đặc biệt là xung quanh gã khổng lồ AI Trung Quốc DeepSeek.
AI từng được ca ngợi là một kỷ nguyên mới cho hiệu quả kinh doanh và đổi mới, nhưng đối với những người ở tuyến đầu của phòng thủ doanh nghiệp, nó đang tạo ra những bóng đen rất dài và u ám.
Bốn trong năm (81%) CISO tại Vương quốc Anh tin rằng chatbot AI của Trung Quốc cần được chính phủ quản lý khẩn cấp. Họ lo sợ rằng nếu không có sự can thiệp nhanh chóng, công cụ này có thể trở thành chất xúc tác cho một cuộc khủng hoảng mạng quốc gia toàn diện.
Đây không phải là sự lo lắng mang tính suy đoán; đó là phản ứng trực tiếp đối với một công nghệ mà các phương pháp xử lý dữ liệu và tiềm năng lạm dụng đang gióng lên hồi chuông cảnh báo ở các cấp cao nhất về an ninh doanh nghiệp.
Những phát hiện này, được Absolute Security ủy quyền cho Báo cáo Chỉ số Rủi ro Khả năng Phục hồi của Vương quốc Anh, dựa trên cuộc thăm dò 250 CISO tại các tổ chức lớn của Vương quốc Anh. Dữ liệu cho thấy mối đe dọa lý thuyết của AI hiện đã nằm chắc trên bàn làm việc của CISO và phản ứng của họ đã rất dứt khoát.
Điều mà cách đây vài năm gần như không thể tưởng tượng được, hơn một phần ba (34%) các lãnh đạo an ninh này đã thực hiện lệnh cấm hoàn toàn đối với các công cụ AI do lo ngại về an ninh mạng. Một số lượng tương tự, 30 phần trăm, đã ngừng các triển khai AI cụ thể trong tổ chức của họ.
Sự rút lui này không phải là dấu hiệu của chủ nghĩa Luddite mà là một phản ứng thực dụng đối với một vấn đề ngày càng leo thang. Các doanh nghiệp đã phải đối mặt với các mối đe dọa phức tạp và thù địch, bằng chứng là các sự cố nổi bật như vụ vi phạm dữ liệu Harrods gần đây. Các CISO đang gặp khó khăn trong việc theo kịp, và việc bổ sung các công cụ AI tinh vi vào kho vũ khí của kẻ tấn công là một thách thức mà nhiều người cảm thấy không đủ khả năng xử lý.
Cốt lõi của vấn đề với các nền tảng như DeepSeek nằm ở tiềm năng làm lộ dữ liệu nhạy cảm của doanh nghiệp và bị tội phạm mạng vũ khí hóa.
Ba trong năm (60%) CISO dự đoán số lượng cuộc tấn công mạng sẽ tăng trực tiếp do sự phổ biến của DeepSeek. Một tỷ lệ tương tự báo cáo rằng công nghệ này đang làm rối loạn các khuôn khổ quyền riêng tư và quản trị của họ, khiến công việc vốn đã khó khăn càng trở nên gần như bất khả thi.
Điều này đã thúc đẩy sự thay đổi trong quan điểm. Từng được coi là một giải pháp thần kỳ tiềm năng cho an ninh mạng, AI hiện được một số lượng chuyên gia ngày càng tăng coi là một phần của vấn đề. Cuộc khảo sát tiết lộ rằng 42 phần trăm CISO hiện coi AI là mối đe dọa lớn hơn là một sự hỗ trợ cho các nỗ lực phòng thủ của họ.
Andy Ward, Phó Chủ tịch cấp cao Quốc tế của Absolute Security, cho biết: “Nghiên cứu của chúng tôi làm nổi bật những rủi ro đáng kể do các công cụ AI mới nổi như DeepSeek gây ra, chúng đang nhanh chóng định hình lại bức tranh mối đe dọa mạng.
“Khi những lo ngại về tiềm năng của chúng trong việc đẩy nhanh các cuộc tấn công và làm tổn hại dữ liệu nhạy cảm ngày càng tăng, các tổ chức phải hành động ngay để tăng cường khả năng phục hồi mạng và điều chỉnh các khuôn khổ bảo mật để theo kịp các mối đe dọa do AI điều khiển này.
“Đó là lý do tại sao bốn trong năm CISO tại Vương quốc Anh đang khẩn trương kêu gọi chính phủ ban hành quy định. Họ đã chứng kiến công nghệ này phát triển nhanh chóng như thế nào và nó có thể dễ dàng vượt qua các biện pháp phòng thủ an ninh mạng hiện có như thế nào.”
Có lẽ điều đáng lo ngại nhất là việc thừa nhận sự thiếu chuẩn bị. Gần một nửa (46%) các lãnh đạo an ninh cấp cao thú nhận rằng nhóm của họ chưa sẵn sàng quản lý các mối đe dọa độc đáo do các cuộc tấn công dựa trên AI gây ra. Họ đang chứng kiến sự phát triển của các công cụ như DeepSeek vượt xa khả năng phòng thủ của họ trong thời gian thực, tạo ra một khoảng trống lỗ hổng nguy hiểm mà nhiều người tin rằng chỉ có thể được lấp đầy bằng sự can thiệp của chính phủ cấp quốc gia.
“Đây không phải là những rủi ro giả định,” Ward tiếp tục. “Việc các tổ chức đã cấm hoàn toàn các công cụ AI và xem xét lại các chiến lược bảo mật của họ để đối phó với những rủi ro do các mô hình ngôn ngữ lớn (LLM) như DeepSeek gây ra cho thấy sự cấp bách của tình hình.
“Nếu không có một khuôn khổ pháp lý quốc gia – một khuôn khổ đặt ra các hướng dẫn rõ ràng về cách các công cụ này được triển khai, quản lý và giám sát – chúng ta có nguy cơ đối mặt với sự gián đoạn rộng khắp trên mọi lĩnh vực của nền kinh tế Vương quốc Anh.”
Mặc dù có thái độ phòng thủ này, các doanh nghiệp không có kế hoạch rút lui hoàn toàn khỏi AI. Phản ứng này giống như một sự tạm dừng chiến lược hơn là một sự dừng lại vĩnh viễn.
Các doanh nghiệp nhận ra tiềm năng to lớn của AI và đang tích cực đầu tư để áp dụng nó một cách an toàn. Trên thực tế, 84 phần trăm các tổ chức đang ưu tiên tuyển dụng chuyên gia AI cho năm 2025.
Khoản đầu tư này mở rộng đến cấp cao nhất của bộ máy doanh nghiệp. 80 phần trăm các công ty đã cam kết đào tạo AI ở cấp C-suite (ban lãnh đạo). Chiến lược dường như là một cách tiếp cận kép: nâng cao kỹ năng cho lực lượng lao động để hiểu và quản lý công nghệ, và thu hút nhân tài chuyên biệt cần thiết để điều hướng sự phức tạp của nó.
Hy vọng – và đó là một hy vọng, nếu không muốn nói là một lời cầu nguyện – là việc xây dựng một nền tảng vững chắc về chuyên môn AI nội bộ có thể đóng vai trò là đối trọng với các mối đe dọa bên ngoài ngày càng leo thang.
Thông điệp từ ban lãnh đạo an ninh Vương quốc Anh rất rõ ràng: họ không muốn cản trở sự đổi mới AI, mà muốn cho phép nó tiến triển một cách an toàn. Để làm được điều đó, họ cần một mối quan hệ đối tác mạnh mẽ hơn với chính phủ.
Con đường phía trước bao gồm thiết lập các quy tắc rõ ràng về tương tác, sự giám sát của chính phủ, một hệ thống các chuyên gia AI có kỹ năng, và một chiến lược quốc gia mạch lạc để quản lý các rủi ro bảo mật tiềm tàng do DeepSeek và thế hệ công cụ AI mạnh mẽ tiếp theo chắc chắn sẽ ra đời.
“Thời gian tranh luận đã kết thúc. Chúng ta cần hành động, chính sách và sự giám sát ngay lập tức để đảm bảo AI vẫn là một động lực cho sự tiến bộ, chứ không phải là chất xúc tác cho khủng hoảng,” Ward kết luận.