Thật hay AI? Ngày càng khó phát hiện video AI. Những mẹo này có thể giúp bạn
Tin tức AI - 07/11/2025 21:52:25
Các video AI của Sora trông thuyết phục đến kinh ngạc, nhưng có một số điều chúng ta có thể làm để tránh bị lừa.
Tất cả chúng ta đều được khuyên không nên tin vào mọi thứ mình thấy trên internet, và điều đó càng đúng hơn trong thời đại AI tạo sinh.
Video do AI tạo ra có mặt ở khắp mọi nơi, từ các deepfake của người nổi tiếng và các chương trình phát sóng thiên tai giả mạo đến video lan truyền về những chú thỏ trên tấm bạt lò xo. Sora, công cụ tạo video AI từ công ty mẹ của ChatGPT, OpenAI, chỉ làm cho việc phân biệt sự thật và hư cấu trở nên khó khăn hơn. Và mô hình Sora 2, một ứng dụng mạng xã hội hoàn toàn mới, ngày càng trở nên tinh vi hơn.
Trong vài tháng qua, ứng dụng giống TikTok này đã trở nên viral, với những người đam mê AI quyết tâm săn lùng mã mời. Nhưng Sora không giống bất kỳ nền tảng mạng xã hội nào khác. Mọi thứ bạn thấy trên Sora đều là giả, và tất cả video đều do AI tạo ra. Tôi mô tả nó như một giấc mơ sốt deepfake AI, thoạt nhìn thì vô hại, nhưng ẩn chứa những rủi ro nguy hiểm ngay bên dưới bề mặt.
Từ góc độ kỹ thuật, các video của Sora rất ấn tượng so với các đối thủ cạnh tranh như Midjourney V1 và Google Veo 3. Chúng có độ phân giải cao, âm thanh đồng bộ và sự sáng tạo đáng kinh ngạc. Tính năng phổ biến nhất của Sora, được mệnh danh là "cameo", cho phép bạn sử dụng hình ảnh của người khác và chèn họ vào gần như bất kỳ cảnh nào do AI tạo ra. Đây là một công cụ ấn tượng, tạo ra những video chân thực đến đáng sợ.
Đó là lý do tại sao rất nhiều chuyên gia lo ngại về Sora. Ứng dụng này giúp mọi người dễ dàng tạo ra các deepfake nguy hiểm, lan truyền thông tin sai lệch và xóa mờ ranh giới giữa cái thật và cái giả. Các nhân vật của công chúng và người nổi tiếng đặc biệt dễ bị tổn thương bởi các deepfake này, và các nghiệp đoàn như SAG-AFTRA đã thúc đẩy OpenAI tăng cường các biện pháp bảo vệ.
Xác định nội dung AI là một thách thức không ngừng đối với các công ty công nghệ, nền tảng mạng xã hội và tất cả mọi người. Nhưng không phải là hoàn toàn vô vọng. Dưới đây là một số điều cần lưu ý để xác định liệu một video có được tạo bằng Sora hay không.
Mỗi video được tạo trên ứng dụng Sora iOS đều có hình mờ khi bạn tải xuống. Đó là logo Sora màu trắng – một biểu tượng đám mây – di chuyển xung quanh các cạnh của video. Nó tương tự như cách video TikTok có hình mờ.
Gắn hình mờ cho nội dung là một trong những cách lớn nhất mà các công ty AI có thể giúp chúng ta nhận biết nội dung do AI tạo ra bằng mắt thường. Chẳng hạn, mô hình Gemini "nano banana" của Google tự động gắn hình mờ cho hình ảnh của nó. Hình mờ rất hữu ích vì chúng đóng vai trò là dấu hiệu rõ ràng cho thấy nội dung được tạo ra với sự trợ giúp của AI.
Nhưng hình mờ không hoàn hảo. Thứ nhất, nếu hình mờ tĩnh (không di chuyển), nó có thể dễ dàng bị cắt bỏ. Ngay cả đối với các hình mờ chuyển động như của Sora, vẫn có những ứng dụng được thiết kế đặc biệt để loại bỏ chúng, vì vậy không thể tin tưởng hoàn toàn vào hình mờ. Khi Giám đốc điều hành OpenAI Sam Altman được hỏi về điều này, ông cho biết xã hội sẽ phải thích nghi với một thế giới mà bất kỳ ai cũng có thể tạo ra video giả mạo của bất kỳ ai. Tất nhiên, trước Sora của OpenAI, không có cách nào phổ biến, dễ tiếp cận, không cần kỹ năng để tạo ra những video đó. Nhưng lập luận của ông đã nêu ra một điểm hợp lý về sự cần thiết phải dựa vào các phương pháp khác để xác minh tính xác thực.
Tôi biết, bạn có thể đang nghĩ rằng không đời nào bạn lại đi kiểm tra siêu dữ liệu của một video để xác định xem nó có thật hay không. Tôi hiểu bạn đang nghĩ gì; đó là một bước phụ, và bạn có thể không biết bắt đầu từ đâu. Nhưng đó là một cách tuyệt vời để xác định xem một video có được tạo bằng Sora hay không, và việc này dễ hơn bạn nghĩ.
Siêu dữ liệu là tập hợp thông tin tự động được đính kèm vào một nội dung khi nó được tạo ra. Nó cung cấp cho bạn cái nhìn sâu sắc hơn về cách một hình ảnh hoặc video được tạo. Nó có thể bao gồm loại máy ảnh được sử dụng để chụp ảnh, vị trí, ngày và giờ video được quay, cũng như tên tệp. Mọi ảnh và video đều có siêu dữ liệu, bất kể chúng được tạo bởi con người hay AI. Và nhiều nội dung do AI tạo ra cũng sẽ có thông tin xác thực nội dung cho biết nguồn gốc AI của nó.
OpenAI là một phần của Liên minh về Nguồn gốc và Tính xác thực của Nội dung (Coalition for Content Provenance and Authenticity), điều này có nghĩa là các video Sora bao gồm siêu dữ liệu C2PA. Bạn có thể sử dụng công cụ xác minh của Sáng kiến Xác thực Nội dung (Content Authenticity Initiative) để kiểm tra siêu dữ liệu của video, hình ảnh hoặc tài liệu. Đây là cách thực hiện. (Sáng kiến Xác thực Nội dung là một phần của C2PA.)
Cách kiểm tra siêu dữ liệu của ảnh, video hoặc tài liệu:
1. Truy cập URL này: https://verify.contentauthenticity.org/
2. Tải lên tệp bạn muốn kiểm tra.
3. Nhấp vào Mở.
4. Kiểm tra thông tin trong bảng điều khiển bên phải. Nếu nội dung do AI tạo ra, nó sẽ được ghi rõ trong phần tóm tắt nội dung.
Khi bạn chạy một video Sora qua công cụ này, nó sẽ hiển thị video được "OpenAI phát hành," và sẽ bao gồm thông tin rằng nó được tạo bằng AI. Tất cả các video Sora đều phải chứa các thông tin xác thực này, cho phép bạn xác nhận rằng nó được tạo bằng Sora.
Công cụ này, giống như tất cả các công cụ phát hiện AI, không hoàn hảo. Có rất nhiều cách mà video AI có thể tránh bị phát hiện. Nếu bạn có các video khác, không phải của Sora, chúng có thể không chứa các tín hiệu cần thiết trong siêu dữ liệu để công cụ xác định xem chúng có phải do AI tạo ra hay không. Ví dụ, các video AI được tạo bằng Midjourney không bị gắn cờ, như tôi đã xác nhận trong quá trình thử nghiệm. Ngay cả khi video được tạo bởi Sora, nhưng sau đó được chạy qua một ứng dụng bên thứ ba (như ứng dụng xóa hình mờ) và tải xuống lại, điều đó làm cho khả năng công cụ gắn cờ nó là AI thấp hơn.

Công cụ xác minh của Sáng kiến Xác thực Nội dung đã gắn cờ chính xác rằng một video tôi tạo bằng Sora là do AI tạo ra, cùng với ngày và giờ tôi tạo video đó. Ảnh chụp màn hình của Katelyn Chedraoui/CNET
Nếu bạn đang sử dụng một trong các nền tảng mạng xã hội của Meta, như Instagram hoặc Facebook, bạn có thể nhận được một chút trợ giúp để xác định xem nội dung nào là AI. Meta có các hệ thống nội bộ để giúp gắn cờ nội dung AI và dán nhãn tương ứng. Các hệ thống này không hoàn hảo, nhưng bạn có thể thấy rõ nhãn cho các bài đăng đã bị gắn cờ. TikTok và YouTube có các chính sách tương tự về việc dán nhãn nội dung AI.
Cách duy nhất thực sự đáng tin cậy để biết liệu một nội dung có phải do AI tạo ra hay không là nếu người tạo tiết lộ điều đó. Nhiều nền tảng mạng xã hội hiện cung cấp cài đặt cho phép người dùng dán nhãn bài đăng của họ là do AI tạo ra. Ngay cả một dòng ghi công hoặc tiết lộ đơn giản trong chú thích của bạn cũng có thể giúp mọi người hiểu cách một nội dung được tạo ra.
Bạn biết rằng khi cuộn trên Sora thì không có gì là thật. Nhưng một khi bạn rời khỏi ứng dụng và chia sẻ video do AI tạo ra, đó là trách nhiệm chung của chúng ta phải tiết lộ cách một video được tạo. Khi các mô hình AI như Sora tiếp tục xóa mờ ranh giới giữa thực tế và AI, tất cả chúng ta phải làm cho rõ ràng nhất có thể khi một thứ gì đó là thật hay AI.
Không có một phương pháp nào hoàn hảo để xác định chính xác ngay từ cái nhìn đầu tiên liệu một video là thật hay AI. Điều tốt nhất bạn có thể làm để tránh bị lừa là không tự động, không nghi ngờ gì mà tin vào mọi thứ bạn thấy trực tuyến. Hãy làm theo trực giác của bạn -- nếu điều gì đó có vẻ không thật, thì có lẽ nó là vậy. Trong những thời điểm chưa từng có, tràn ngập nội dung AI chất lượng kém này, cách phòng thủ tốt nhất của bạn là kiểm tra kỹ hơn các video bạn đang xem. Đừng chỉ lướt nhanh và cuộn đi mà không suy nghĩ. Hãy kiểm tra xem có văn bản bị biến dạng, vật thể biến mất và chuyển động bất chấp vật lý hay không. Và đừng tự trách mình nếu thỉnh thoảng bạn bị lừa; ngay cả các chuyên gia cũng có lúc mắc lỗi.