Hiệu quả chi phí AI và chủ quyền dữ liệu đang mâu thuẫn với nhau, buộc các tổ chức toàn cầu phải xem xét lại các khung quản trị rủi ro doanh nghiệp.
Hiệu quả chi phí AI và chủ quyền dữ liệu đang mâu thuẫn với nhau, buộc các tổ chức toàn cầu phải xem xét lại các khung quản trị rủi ro doanh nghiệp.
Trong hơn một năm qua, câu chuyện về AI tạo sinh đã tập trung vào cuộc đua về khả năng, thường đo lường thành công bằng số lượng tham số và các điểm số benchmark thiếu sót. Tuy nhiên, các cuộc thảo luận trong phòng họp ban quản trị đang trải qua một sự điều chỉnh cần thiết.
Trong khi sức hấp dẫn của các mô hình giá rẻ, hiệu suất cao mang lại một con đường đầy cám dỗ để đổi mới nhanh chóng, thì những trách nhiệm pháp lý tiềm ẩn liên quan đến việc lưu trú dữ liệu và ảnh hưởng của quốc gia đang buộc các bên phải đánh giá lại việc lựa chọn nhà cung cấp. Phòng thí nghiệm AI DeepSeek có trụ sở tại Trung Quốc gần đây đã trở thành tâm điểm của cuộc tranh luận trên toàn ngành này.
Theo Bill Conner, cựu cố vấn của Interpol và GCHQ, đồng thời là CEO hiện tại của Jitterbit, sự đón nhận ban đầu đối với DeepSeek là tích cực vì nó đã thách thức hiện trạng bằng cách chứng minh rằng “các mô hình ngôn ngữ lớn hiệu suất cao không nhất thiết phải yêu cầu ngân sách quy mô như ở Thung lũng Silicon.”
Đối với các doanh nghiệp đang tìm cách cắt giảm chi phí khổng lồ liên quan đến các dự án AI tạo sinh thí điểm, hiệu quả này rõ ràng là rất hấp dẫn. Conner quan sát thấy rằng những “chi phí đào tạo thấp được báo cáo này chắc chắn đã khơi dậy các cuộc thảo luận trong ngành xung quanh tính hiệu quả, tối ưu hóa và AI ‘đủ dùng’.”
Sự hào hứng đối với hiệu suất giá rẻ đã va chạm với thực tế địa chính trị. Hiệu quả vận hành không thể tách rời khỏi bảo mật dữ liệu, đặc biệt là khi dữ liệu đó cung cấp cho các mô hình được lưu trữ tại các khu vực tài phán có khung pháp lý khác nhau về quyền riêng tư và quyền truy cập của nhà nước.
Những tiết lộ gần đây liên quan đến DeepSeek đã thay đổi bài toán cho các doanh nghiệp phương Tây. Conner nhấn mạnh “các tiết lộ gần đây của chính phủ Hoa Kỳ chỉ ra rằng DeepSeek không chỉ lưu trữ dữ liệu tại Trung Quốc mà còn tích cực chia sẻ dữ liệu đó với các cơ quan tình báo nhà nước.”
Tiết lộ này đưa vấn đề vượt ra ngoài các tiêu chuẩn tuân thủ GDPR hoặc CCPA thông thường. “Hồ sơ rủi ro leo thang vượt qua các mối quan tâm về quyền riêng tư điển hình để tiến vào lĩnh vực an ninh quốc gia.”
Đối với các lãnh đạo doanh nghiệp, điều này tạo ra một mối nguy hiểm cụ thể. Việc tích hợp LLM hiếm khi là một sự kiện độc lập; nó bao gồm việc kết nối mô hình với các hồ dữ liệu độc quyền, hệ thống thông tin khách hàng và các kho lưu trữ sở hữu trí tuệ. Nếu mô hình AI nền tảng sở hữu một “cửa sau” hoặc buộc phải chia sẻ dữ liệu với bộ máy tình báo nước ngoài, chủ quyền dữ liệu sẽ bị xóa bỏ và doanh nghiệp thực tế đã bỏ qua ranh giới bảo mật của chính mình, làm mất sạch mọi lợi ích về hiệu quả chi phí.
Conner cảnh báo rằng “sự vướng mắc của DeepSeek với các mạng lưới mua sắm quân sự và các chiến thuật trốn tránh kiểm soát xuất khẩu bị cáo buộc nên được coi là một dấu hiệu cảnh báo quan trọng đối với các CEO, CIO và các cán bộ quản lý rủi ro.” Việc sử dụng công nghệ như vậy có thể vô tình khiến một công ty vướng vào các vi phạm lệnh trừng phạt hoặc các thỏa hiệp trong chuỗi cung ứng.
Thành công giờ đây không chỉ là về việc tạo mã hay tóm tắt tài liệu; đó là về khung pháp lý và đạo đức của nhà cung cấp. Đặc biệt trong các ngành như tài chính, y tế và quốc phòng, sự khoan dung đối với sự mơ hồ về nguồn gốc dữ liệu là bằng không.
Các nhóm kỹ thuật có thể ưu tiên các điểm benchmark hiệu suất AI và tính dễ tích hợp trong giai đoạn thử nghiệm (PoC), có khả năng bỏ qua nguồn gốc địa chính trị của công cụ và nhu cầu về chủ quyền dữ liệu. Các cán bộ quản lý rủi ro và CIO phải thực thi một lớp quản trị để thẩm vấn “ai” và “ở đâu” của mô hình, chứ không chỉ là “cái gì.”
Quyết định áp dụng hay cấm một mô hình AI cụ thể là vấn đề về trách nhiệm của doanh nghiệp. Cổ đông và khách hàng kỳ vọng rằng dữ liệu của họ vẫn được bảo mật và chỉ được sử dụng cho các mục đích kinh doanh đã định.
Conner trình bày điều này một cách rõ ràng cho giới lãnh đạo phương Tây, khẳng định rằng “đối với các CEO, CIO và cán bộ quản lý rủi ro phương Tây, đây không phải là câu hỏi về hiệu suất mô hình hay hiệu quả chi phí.” Thay vào đó, “đó là vấn đề về quản trị, trách nhiệm giải trình và trách nhiệm ủy thác.”
Các doanh nghiệp “không thể biện minh cho việc tích hợp một hệ thống mà việc lưu trú dữ liệu, mục đích sử dụng và ảnh hưởng của quốc gia về cơ bản là mơ hồ.” Sự thiếu minh bạch này tạo ra một trách nhiệm pháp lý không thể chấp nhận được. Ngay cả khi một mô hình cung cấp 95% hiệu suất của đối thủ cạnh tranh với mức chi phí chỉ bằng một nửa, thì khả năng bị phạt theo quy định, thiệt hại về uy tín và mất sở hữu trí tuệ sẽ ngay lập tức xóa bỏ những khoản tiết kiệm đó.
Nghiên cứu trường hợp của DeepSeek đóng vai trò như một lời nhắc nhở để kiểm tra các chuỗi cung ứng AI hiện tại. Các nhà lãnh đạo phải đảm bảo họ có tầm nhìn đầy đủ về nơi xảy ra quá trình suy luận mô hình và ai là người nắm giữ chìa khóa đối với dữ liệu nền tảng.
Khi thị trường AI tạo sinh trưởng thành, sự tin cậy, tính minh bạch và chủ quyền dữ liệu có khả năng sẽ quan trọng hơn sức hấp dẫn của hiệu quả chi phí thuần túy.