Video Deepfake Chân Thực Hơn Bao Giờ Hết. Đây Là Cách Nhận Biết Video Thật Hay Do AI Tạo
Tin tức AI - 16/11/2025 04:30:35
Đây là hướng dẫn về các dấu hiệu nhận biết video do AI tạo, ngay cả khi chúng trông thật.
Còn nhớ khi "giả mạo" trên internet có nghĩa là một bức ảnh bị chỉnh sửa Photoshop tệ hại không? À, những ngày tháng đơn giản hơn nhiều. Giờ đây, tất cả chúng ta đang chìm trong một biển video do AI tạo và deepfake, từ những video người nổi tiếng giả mạo đến các bản tin thảm họa sai sự thật, và gần như không thể biết được đâu là thật.
Và mọi thứ sắp trở nên tồi tệ hơn. Sora, công cụ video AI từ OpenAI, đã làm đục dòng nước. Nhưng giờ đây, "ứng dụng mạng xã hội" mới, lan truyền của nó, Sora 2, đang là cái tên nóng nhất trên internet. Điều đáng nói là: đây là một nguồn cấp dữ liệu kiểu TikTok chỉ dành cho người được mời, nơi mọi thứ đều là giả mạo 100%.
Tác giả đã gọi nó là một "giấc mơ sốt deepfake," và đó chính xác là những gì nó là. Đây là một nền tảng ngày càng giỏi hơn trong việc biến hư cấu thành sự thật, và rủi ro là rất lớn. Nếu bạn đang vật lộn để phân biệt thật giả với AI, bạn không đơn độc.
Dưới đây là một số mẹo hữu ích có thể giúp bạn vượt qua sự ồn ào để tìm ra sự thật của mỗi tình huống do AI tạo ra.
Từ góc độ kỹ thuật, các video của Sora rất ấn tượng so với các đối thủ cạnh tranh như Midjourney V1 và Google Veo 3. Chúng có độ phân giải cao, âm thanh đồng bộ và khả năng sáng tạo đáng kinh ngạc. Tính năng phổ biến nhất của Sora, được gọi là "cameo," cho phép bạn sử dụng hình ảnh của người khác và chèn họ vào hầu hết mọi cảnh do AI tạo ra. Đây là một công cụ ấn tượng, tạo ra những video chân thực đến đáng sợ.
Đó là lý do tại sao rất nhiều chuyên gia lo ngại về Sora. Ứng dụng này giúp mọi người dễ dàng tạo ra các deepfake nguy hiểm, lan truyền thông tin sai lệch và làm mờ ranh giới giữa thực tế và không thực. Những nhân vật của công chúng và người nổi tiếng đặc biệt dễ bị tổn thương bởi các deepfake này, và các nghiệp đoàn như SAG-AFTRA đã thúc đẩy OpenAI tăng cường các rào chắn.
Việc xác định nội dung AI là một thách thức không ngừng đối với các công ty công nghệ, nền tảng mạng xã hội và tất cả mọi người khác. Nhưng không phải là hoàn toàn vô vọng. Dưới đây là một số điều cần lưu ý để xác định xem một video có được tạo bằng Sora hay không.
Mọi video được tạo trên ứng dụng Sora iOS đều có hình mờ khi bạn tải xuống. Đó là logo Sora màu trắng -- một biểu tượng đám mây -- di chuyển xung quanh các cạnh của video. Nó tương tự như cách các video TikTok được gắn hình mờ.
Gắn hình mờ nội dung là một trong những cách lớn nhất mà các công ty AI có thể giúp chúng ta nhận biết nội dung do AI tạo ra một cách trực quan. Mô hình "nano banana" của Google Gemini, chẳng hạn, tự động gắn hình mờ vào hình ảnh của nó. Hình mờ rất hữu ích vì chúng đóng vai trò là dấu hiệu rõ ràng cho thấy nội dung được tạo ra với sự trợ giúp của AI.
Nhưng hình mờ không hoàn hảo. Thứ nhất, nếu hình mờ là tĩnh (không di chuyển), nó có thể dễ dàng bị cắt bỏ. Ngay cả đối với các hình mờ di chuyển như của Sora, vẫn có những ứng dụng được thiết kế đặc biệt để xóa chúng, vì vậy không thể hoàn toàn tin tưởng vào hình mờ. Khi CEO OpenAI Sam Altman được hỏi về vấn đề này, ông đã nói rằng xã hội sẽ phải thích nghi với một thế giới nơi bất kỳ ai cũng có thể tạo ra video giả của bất kỳ ai. Tất nhiên, trước Sora của OpenAI, không có cách nào phổ biến, dễ tiếp cận, không cần kỹ năng để tạo ra những video đó. Nhưng lập luận của ông ấy đưa ra một điểm hợp lý về sự cần thiết phải dựa vào các phương pháp khác để xác minh tính xác thực.
Tôi biết, bạn có thể đang nghĩ rằng không đời nào bạn sẽ kiểm tra siêu dữ liệu của một video để xác định xem nó có thật hay không. Tôi hiểu quan điểm của bạn; đó là một bước bổ sung, và bạn có thể không biết bắt đầu từ đâu. Nhưng đó là một cách tuyệt vời để xác định xem một video có được tạo bằng Sora hay không, và nó dễ thực hiện hơn bạn nghĩ.
Siêu dữ liệu là một tập hợp thông tin được tự động đính kèm vào một nội dung khi nó được tạo ra. Nó cung cấp cho bạn cái nhìn sâu sắc hơn về cách một hình ảnh hoặc video được tạo ra. Nó có thể bao gồm loại máy ảnh được sử dụng để chụp ảnh, vị trí, ngày và giờ video được quay và tên tệp. Mọi ảnh và video đều có siêu dữ liệu, bất kể chúng được tạo bởi con người hay AI. Và rất nhiều nội dung do AI tạo ra cũng sẽ có thông tin xác thực nội dung cho biết nguồn gốc AI của chúng.
OpenAI là một phần của Liên minh về Nguồn gốc và Tính xác thực của Nội dung, điều này, đối với bạn, có nghĩa là các video Sora bao gồm siêu dữ liệu C2PA. Bạn có thể sử dụng công cụ xác minh của Sáng kiến Xác thực Nội dung để kiểm tra siêu dữ liệu của video, hình ảnh hoặc tài liệu. Đây là cách thực hiện. (Sáng kiến Xác thực Nội dung là một phần của C2PA.)
Cách kiểm tra siêu dữ liệu của ảnh, video hoặc tài liệu:
1. Truy cập URL này: https://verify.contentauthenticity.org/
2. Tải lên tệp bạn muốn kiểm tra.
3. Nhấp vào Mở.
4. Kiểm tra thông tin ở bảng bên phải. Nếu nội dung do AI tạo, thông tin này sẽ được hiển thị trong phần tóm tắt nội dung.
Khi bạn chạy một video Sora qua công cụ này, nó sẽ hiển thị video được "phát hành bởi OpenAI," và sẽ bao gồm thông tin video được tạo bởi AI. Tất cả các video Sora nên chứa các thông tin xác thực này để bạn có thể xác nhận rằng nó được tạo bằng Sora.
Công cụ này, giống như tất cả các trình phát hiện AI, không hoàn hảo. Có rất nhiều cách mà video AI có thể tránh bị phát hiện. Nếu bạn có các video khác, không phải của Sora, chúng có thể không chứa các tín hiệu cần thiết trong siêu dữ liệu để công cụ xác định xem chúng có phải do AI tạo hay không. Ví dụ, các video AI được tạo bằng Midjourney không bị gắn cờ, như tôi đã xác nhận trong thử nghiệm của mình. Ngay cả khi video được tạo bởi Sora, nhưng sau đó được chạy qua một ứng dụng của bên thứ ba (như ứng dụng xóa hình mờ) và tải xuống lại, điều đó làm giảm khả năng công cụ sẽ gắn cờ nó là AI.

Công cụ xác minh của Sáng kiến Xác thực Nội dung đã gắn cờ chính xác rằng một video tôi tạo bằng Sora là do AI tạo, cùng với ngày và giờ tôi tạo ra nó. Ảnh chụp màn hình của Katelyn Chedraoui/CNET
Nếu bạn đang sử dụng một trong các nền tảng mạng xã hội của Meta, như Instagram hoặc Facebook, bạn có thể nhận được một chút trợ giúp để xác định xem nội dung nào đó có phải là AI hay không. Meta có các hệ thống nội bộ để giúp gắn cờ nội dung AI và dán nhãn tương ứng. Các hệ thống này không hoàn hảo, nhưng bạn có thể nhìn thấy rõ nhãn cho các bài đăng đã bị gắn cờ. TikTok và YouTube có các chính sách tương tự về việc gắn nhãn nội dung AI.
Cách duy nhất thực sự đáng tin cậy để biết một nội dung có phải do AI tạo ra hay không là nếu người tạo tiết lộ điều đó. Nhiều nền tảng mạng xã hội hiện cung cấp cài đặt cho phép người dùng gắn nhãn bài đăng của họ là do AI tạo ra. Ngay cả một ghi công hoặc tiết lộ đơn giản trong chú thích của bạn cũng có thể giúp mọi người hiểu rõ cách một nội dung được tạo ra.
Bạn biết rằng khi cuộn qua Sora thì không có gì là thật. Nhưng một khi bạn rời khỏi ứng dụng và chia sẻ các video do AI tạo, đó là trách nhiệm chung của chúng ta phải tiết lộ cách video được tạo ra. Khi các mô hình AI như Sora tiếp tục làm mờ ranh giới giữa thực tế và AI, tất cả chúng ta có trách nhiệm làm cho điều đó trở nên rõ ràng nhất có thể khi một nội dung là thật hay do AI tạo ra.
Không có một phương pháp nào hoàn hảo để nhận biết chính xác ngay lập tức liệu một video là thật hay do AI tạo ra. Điều tốt nhất bạn có thể làm để tránh bị lừa là không tin tưởng một cách tự động, không đặt câu hỏi vào mọi thứ bạn thấy trên mạng. Hãy tin vào trực giác của bạn -- nếu một điều gì đó cảm thấy không thật, có thể nó không thật. Trong thời đại tràn ngập AI chưa từng có này, cách phòng thủ tốt nhất của bạn là kiểm tra kỹ hơn các video bạn đang xem. Đừng chỉ lướt qua nhanh chóng và cuộn đi mà không suy nghĩ. Kiểm tra xem có văn bản bị biến dạng, vật thể biến mất và chuyển động bất chấp vật lý hay không. Và đừng tự trách mình nếu thỉnh thoảng bạn bị lừa; ngay cả các chuyên gia cũng có thể mắc sai lầm.