Google, Sony Innovation Fund và Okta hỗ trợ Resemble AI trong nỗ lực phát hiện deepfake

Tin tức AI - 08/12/2025 21:00:00

Resemble AI đã huy động được 13 triệu USD từ các nhà đầu tư bao gồm Google, Sony, Comcast và Okta để mở rộng các công cụ phát hiện deepfake của mình.

Resemble AI đã huy động được 13 triệu USD trong vòng đầu tư chiến lược mới dành cho việc phát hiện deepfake AI. Khoản tài trợ này nâng tổng số vốn đầu tư mạo hiểm của công ty lên 25 triệu USD, với sự tham gia của Berkeley CalFund, Berkeley Frontier Fund, Comcast Ventures, Craft Ventures, Gentree, Google’s AI Futures Fund, IAG Capital Partners và các bên khác.

Khoản tài trợ này đến trong bối cảnh các tổ chức đang chịu áp lực phải xác minh tính xác thực của nội dung số. AI tạo sinh đã giúp tội phạm dễ dàng tạo ra các deepfake thuyết phục, góp phần gây ra hơn 1,56 tỷ USD thiệt hại do gian lận vào năm 2025. Các nhà phân tích ước tính rằng AI tạo sinh có thể gây ra 40 tỷ USD thiệt hại do gian lận tại Mỹ vào năm 2027.

Các sự cố gần đây cho thấy các mối đe dọa phát triển nhanh chóng như thế nào. Tại Singapore, 13 cá nhân đã mất tổng cộng hơn 360.000 SGD sau khi những kẻ lừa đảo mạo danh một nhà cung cấp dịch vụ viễn thông và Cơ quan Tiền tệ Singapore. Những kẻ tấn công đã sử dụng kỹ thuật giả mạo số điện thoại (caller ID spoofing), deepfake giọng nói và kỹ thuật tấn công phi kỹ thuật (social engineering) nhằm tạo ra sự cấp bách và lợi dụng lòng tin của công chúng vào các thương hiệu chính phủ và viễn thông.

Công cụ phát hiện deepfake và các khả năng AI mới

Resemble AI phát triển các công cụ xác minh thời gian thực giúp các doanh nghiệp phát hiện âm thanh, video, hình ảnh và văn bản do AI tạo ra. Công ty dự định sử dụng nguồn tài trợ mới để mở rộng khả năng tiếp cận toàn cầu cho nền tảng phát hiện deepfake AI của mình, bao gồm hai bản phát hành gần đây:

  • DETECT-3B Omni, một mô hình phát hiện deepfake được thiết kế cho môi trường doanh nghiệp. Công ty báo cáo độ chính xác phát hiện 98% trên hơn 38 ngôn ngữ.
  • Resemble Intelligence, một nền tảng cung cấp khả năng giải thích cho nội dung đa phương thức và do AI tạo ra, sử dụng các mô hình Gemini 3 của Google.

Resemble AI định vị các công cụ này như một phần của nỗ lực rộng lớn hơn nhằm hỗ trợ xác minh thời gian thực cho người dùng và các tác nhân AI tương tác với nội dung số.

Theo công ty, DETECT-3B Omni đã được sử dụng trong các lĩnh vực như giải trí, viễn thông và chính phủ. Kết quả đánh giá công khai trên Hugging Face cho thấy mô hình này xếp hạng trong số các công cụ hoạt động mạnh nhất về phát hiện deepfake hình ảnh và giọng nói, với tỷ lệ lỗi trung bình thấp hơn so với các mô hình cạnh tranh.

Các bên liên quan trong ngành cho rằng sự cải thiện nhanh chóng của AI tạo sinh đang định hình lại cách các doanh nghiệp suy nghĩ về lòng tin nội dung và hệ thống nhận dạng. Đại diện từ Google’s AI Futures Fund, Sony Ventures và Okta lưu ý rằng các tổ chức đang chuyển sang các lớp xác minh có thể giúp duy trì lòng tin trong các quy trình xác thực.

Cùng với thông báo đầu tư, Resemble AI đã công bố triển vọng về cách các rủi ro liên quan đến deepfake có thể phát triển vào năm 2026. Công ty dự kiến một số thay đổi có thể định hình kế hoạch của doanh nghiệp:

Xác minh deepfake có thể trở thành tiêu chuẩn cho các thông tin liên lạc chính thức

Sau các sự cố liên quan đến các quan chức chính phủ, công ty dự đoán việc phát hiện deepfake thời gian thực cuối cùng có thể được yêu cầu đối với các cuộc họp video chính thức. Một động thái như vậy có thể sẽ tạo ra hoạt động mua sắm mới và tăng cường áp dụng trong khu vực công.

Sự sẵn sàng của tổ chức có thể quyết định vị thế cạnh tranh

Khi ngày càng nhiều khu vực pháp lý ban hành quy định về AI, các doanh nghiệp tích hợp sớm các quy trình đào tạo, quản trị và tuân thủ có thể thấy mình được chuẩn bị tốt hơn cho các yêu cầu hoạt động và quy định.

Nhận dạng nổi lên như một trọng tâm trong bảo mật AI

Với nhiều cuộc tấn công liên quan đến AI dựa vào việc mạo danh, các tổ chức có thể đặt trọng tâm lớn hơn vào các mô hình bảo mật lấy nhận dạng làm trung tâm, bao gồm các phương pháp tiếp cận không tin cậy (zero-trust) cho nhận dạng của con người và máy móc.

Chi phí bảo hiểm rủi ro mạng có thể tăng

Số lượng ngày càng tăng các sự cố deepfake của doanh nghiệp có thể khiến các công ty bảo hiểm đánh giá lại các chính sách mà họ cung cấp. Các công ty không có công cụ phát hiện có thể phải đối mặt với phí bảo hiểm cao hơn hoặc phạm vi bảo hiểm hạn chế.

Khoản đầu tư này nhấn mạnh nhu cầu ngày càng tăng đối với các doanh nghiệp để hiểu cách AI tạo sinh thay đổi mức độ rủi ro của họ. Các tổ chức trong mọi lĩnh vực đang đánh giá cách thức xác minh, biện pháp bảo vệ danh tính và sự sẵn sàng ứng phó sự cố có thể phù hợp với các chiến lược bảo mật và tuân thủ rộng lớn hơn của họ.

Tin tức AI

Xem tất cả