Đừng mua tiền điện tử từ deepfake Taylor Swift. Cách phát hiện lừa đảo AI người nổi tiếng
Tin tức AI - 14/11/2025 00:02:40
Theo McAfee, đây là những người nổi tiếng phổ biến nhất được sử dụng trong các vụ lừa đảo deepfake AI.
AI giúp việc tạo nội dung dễ dàng hơn bao giờ hết và những kẻ lừa đảo đang tận dụng điều đó. Một báo cáo vào thứ Năm từ công ty bảo mật McAfee cho thấy nhiều người Mỹ (72%) đã nhìn thấy một quảng cáo chứng thực giả mạo của người nổi tiếng hoặc người có ảnh hưởng. Trong số tất cả những người nổi tiếng có tên, hình ảnh và danh tiếng bị khai thác trong các vụ lừa đảo trực tuyến, của Taylor Swift được sử dụng nhiều nhất.
Sau Swift, những người nổi tiếng khác có hình ảnh được sử dụng nhiều nhất trong các vụ lừa đảo trực tuyến là Scarlett Johansson, Jenna Ortega và Sydney Sweeney. Phần lớn trong top 10 là các biểu tượng văn hóa đại chúng hoặc nhạc sĩ, bao gồm Sabrina Carpenter, Kim Kardashian và Zendaya. Đại biểu Hạ viện Hoa Kỳ Alexandria Ocasio-Cortez là chính trị gia duy nhất trong danh sách. Đáng chú ý, chỉ có hai người đàn ông: Tom Cruise và LeBron James.
Nghiên cứu tập trung vào các vụ lừa đảo trực tuyến dựa trên sản phẩm, hướng đến người tiêu dùng, chẳng hạn như một loại tiền điện tử giả mạo tuyên bố được AOC chứng thực. Nó không đo lường mức độ của tất cả các deepfake được tạo ra, đó là lý do tại sao các nhân vật đáng chú ý khác, như Tổng thống Donald Trump, không nằm trong top 10. Những loại kẻ lừa đảo trên internet này dựa vào việc khiến mọi người tương tác với nội dung của họ, cho dù đó là nhấp vào các liên kết giả mạo, đăng ký các chương trình tặng quà gian lận hay mua sản phẩm giả. Vì vậy, thật đáng buồn, điều hợp lý là họ dựa vào những cái tên lớn như Swift để thu hút sự chú ý của chúng ta. Chẳng hạn, khi Swift công bố đính hôn với Travis Kelce, những kẻ lừa đảo đã tạo ra quảng cáo hàng hóa giả mạo dựa trên lời cầu hôn của Kelce. Những người nổi tiếng và người có ảnh hưởng từ lâu đã bị khai thác theo cách này, nhưng AI mang lại một sự thúc đẩy đáng tiếc cho những kẻ xấu.
Các công cụ AI tạo sinh như trình tạo hình ảnh, video và âm thanh mang đến cho những kẻ xấu một con đường mới. Chúng có thể sao chép hình ảnh của người nổi tiếng để tạo ra một quảng cáo chứng thực giả, chương trình tặng quà hoặc quảng bá sản phẩm giả. Tất cả những gì kẻ lừa đảo cần làm là tạo một bài đăng trên mạng xã hội đủ thuyết phục. Và nó thực sự hiệu quả, với McAfee báo cáo rằng 39% người đã nhấp vào một trong những quảng cáo chứng thực giả mạo này và 10% đã đặt thông tin cá nhân của mình vào rủi ro và mất trung bình hàng trăm đô la (525 đô la).
Các công ty AI tạo ra các mô hình AI này đã có các hệ thống để cố gắng ngăn chặn những kẻ lừa đảo, hoặc bất kỳ ai, tạo nội dung AI về người nổi tiếng mà không có sự đồng ý của họ. Nhưng chúng ta đã nhiều lần thấy các hệ thống này không hoàn hảo và có thể bị vượt qua. Trong vài tuần đầu sau khi Sora ra mắt, di sản của nhà lãnh đạo dân quyền Martin Luther King Jr. đã phải liên hệ với OpenAI vì lo ngại về một lượng lớn video AI không phù hợp và mang tính phân biệt chủng tộc về King trên nền tảng. Mặc dù OpenAI đã nói rằng họ có kế hoạch làm việc với các diễn viên và người nổi tiếng về vấn đề này, đây không phải là vấn đề có thể giải quyết chỉ bằng các điều chỉnh kỹ thuật đơn giản hoặc chính sách.
Việc xác định nội dung do AI tạo ra rất khó khăn nhưng có một số điều bạn có thể lưu ý. Dưới đây là một vài điều.
Ngay cả trong thời đại AI, các mẹo phát hiện lừa đảo cũng không khác nhiều so với thời tiền AI. Mặc dù những kẻ lừa đảo có thể đang sử dụng AI, nhưng chúng vẫn dùng các chiến thuật cũ.
"Các dấu hiệu cảnh báo chưa thay đổi: sự khẩn cấp, áp lực cảm xúc và yêu cầu thông tin cá nhân hoặc thanh toán vẫn là những dấu hiệu nhận biết lớn nhất," Abhishek Karnik, trưởng bộ phận nghiên cứu mối đe dọa của McAfee, cho biết trong một email.
Dưới đây là một số dấu hiệu cảnh báo lừa đảo cần lưu ý.
Những kẻ lừa đảo sẽ cố gắng thao túng lòng tin của bạn, Karnik nói. Cảnh giác và thận trọng khi chia sẻ thông tin cá nhân có thể giúp bạn tránh rơi vào bẫy lừa đảo. Chỉ vì một thứ gì đó nói rằng được Swift chứng thực hoặc sử dụng không có nghĩa là nó thực sự như vậy.