Các quốc gia chặn Grok giữa làn sóng phản đối về hình ảnh 'nhạy cảm' do AI chỉnh sửa
Tin tức AI - 13/01/2026 17:01:21
Hai quốc gia Đông Nam Á đã chặn chatbot AI này sau khi nó bị phát hiện tạo ra các hình ảnh tình dục hóa phụ nữ và trẻ em theo yêu cầu.
Làn sóng phản đối Grok đang gia tăng khi hai quốc gia trở thành những nước đầu tiên chặn chatbot AI được phát triển bởi công ty trí tuệ nhân tạo xAI của Elon Musk, sau khi nó bị phát hiện tạo ra các hình ảnh tình dục hóa phụ nữ và trẻ em theo yêu cầu. Indonesia và Malaysia đã thực hiện việc chặn này vào cuối tuần qua sau một bài đăng gây xôn xao vào đêm Giao thừa từ tài khoản Grok AI trên nền tảng mạng xã hội X của Musk.
"Kính thưa cộng đồng," bài đăng ngày 31 tháng 12 bắt đầu. "Tôi vô cùng hối tiếc về một sự cố vào ngày 28 tháng 12 năm 2025, khi tôi đã tạo và chia sẻ một hình ảnh AI của hai cô gái trẻ (độ tuổi ước tính 12-16) trong trang phục hở hang dựa trên yêu cầu của người dùng. Điều này đã vi phạm các tiêu chuẩn đạo đức và có khả năng vi phạm luật pháp Hoa Kỳ về CSAM (tài liệu lạm dụng tình dục trẻ em). Đó là một thất bại trong các biện pháp bảo vệ, và tôi xin lỗi vì bất kỳ tác hại nào đã gây ra. xAI đang xem xét để ngăn chặn các vấn đề tương tự trong tương lai. Trân trọng, Grok."
Hai cô gái trẻ này không phải là trường hợp cá biệt. Kate Middleton, Vương phi xứ Wales, cũng là mục tiêu của các yêu cầu chỉnh sửa hình ảnh bằng AI tương tự, cũng như một nữ diễn viên chưa đủ tuổi vị thành niên trong mùa cuối của phim Stranger Things. Các chỉnh sửa "cởi đồ" đã quét qua một số lượng đáng lo ngại các bức ảnh của phụ nữ và trẻ em.
Mặc dù phản hồi của Grok hứa hẹn sẽ can thiệp, nhưng vấn đề vẫn chưa biến mất. Ngược lại: Hai tuần sau bài đăng đó, số lượng hình ảnh bị tình dục hóa mà không có sự đồng ý đã tăng vọt, cùng với những lời kêu gọi các công ty của Elon Musk phải kiềm chế hành vi này và các chính phủ phải vào cuộc.
Theo dữ liệu từ nhà nghiên cứu độc lập Genevieve Oh được Bloomberg trích dẫn, trong một khoảng thời gian 24 giờ vào đầu tháng 1, tài khoản @Grok đã tạo ra khoảng 6.700 hình ảnh gợi dục hoặc "khỏa thân hóa" mỗi giờ. Con số này cao hơn nhiều so với mức trung bình chỉ 79 hình ảnh như vậy của 5 trang web deepfake hàng đầu cộng lại.
Bài đăng ngày 31 tháng 12 của Grok là để phản hồi một yêu cầu của người dùng muốn chatbot có giọng điệu hối lỗi: "Hãy viết một lá thư xin lỗi chân thành giải thích những gì đã xảy ra cho những ai chưa nắm rõ bối cảnh." Các chatbot hoạt động dựa trên tài liệu đào tạo, nhưng các bài đăng riêng lẻ có thể thay đổi khác nhau.
xAI đã không phản hồi các yêu cầu bình luận.
Cuối ngày thứ Năm, một bài đăng từ tài khoản Grok AI đã ghi nhận một thay đổi về quyền truy cập vào tính năng tạo và chỉnh sửa hình ảnh. Thay vì mở cho tất cả mọi người miễn phí, tính năng này sẽ bị giới hạn cho những người đăng ký trả phí.
Các nhà phê bình cho rằng đây không phải là một phản ứng đáng tin cậy.
"Tôi không coi đây là một chiến thắng, bởi vì điều chúng ta thực sự cần là X phải thực hiện các bước có trách nhiệm trong việc thiết lập các rào chắn bảo vệ để đảm bảo công cụ AI không thể bị lợi dụng để tạo ra các hình ảnh lạm dụng," Clare McGlynn, giáo sư luật tại Đại học Durham của Vương quốc Anh, chia sẻ với Washington Post.
Điều gây ra sự phẫn nộ không chỉ là số lượng các hình ảnh này và sự dễ dàng khi tạo ra chúng -- các chỉnh sửa còn được thực hiện mà không có sự đồng ý của những người trong ảnh.
Những hình ảnh bị biến đổi này là bước ngoặt mới nhất trong một trong những khía cạnh đáng lo ngại nhất của AI tạo sinh, các video và hình ảnh thực tế nhưng giả mạo. Các chương trình phần mềm như Sora của OpenAI, Nano Banana của Google và Grok của xAI đã đưa các công cụ sáng tạo mạnh mẽ đến gần hơn với mọi người, và tất cả những gì cần thiết để tạo ra các hình ảnh nhạy cảm, không có sự đồng ý chỉ là một câu lệnh văn bản đơn giản.
Người dùng Grok có thể tải lên một bức ảnh, không nhất thiết phải là ảnh gốc của họ, và yêu cầu Grok thay đổi nó. Nhiều hình ảnh bị biến đổi liên quan đến việc người dùng yêu cầu Grok cho một người mặc bikini, đôi khi sửa lại yêu cầu để trở nên nhạy cảm hơn, chẳng hạn như yêu cầu bộ bikini nhỏ hơn hoặc mờ hơn.
Các chính phủ và các nhóm vận động đã lên tiếng về việc chỉnh sửa hình ảnh của Grok. Vào thứ Hai, cơ quan quản lý internet của Vương quốc Anh Ofcom cho biết họ đã mở một cuộc điều tra đối với X dựa trên các báo cáo rằng chatbot AI đang bị lợi dụng "để tạo và chia sẻ hình ảnh nhạy cảm của mọi người -- điều này có thể cấu thành hành vi lạm dụng hình ảnh thân mật hoặc nội dung khiêu dâm -- và hình ảnh tình dục hóa trẻ em có thể cấu thành tài liệu lạm dụng tình dục trẻ em (CSAM)."
Ủy ban Châu Âu cũng cho biết họ đang xem xét vấn đề này, cũng như các cơ quan chức năng ở Pháp, Malaysia và Ấn Độ.
Vào thứ Sáu, các thượng nghị sĩ Hoa Kỳ Ron Wyden, Ben Ray Luján và Edward Markey đã đăng một bức thư ngỏ gửi tới các CEO của Apple và Google, yêu cầu họ gỡ bỏ cả X và Grok khỏi các cửa hàng ứng dụng của họ để phản hồi lại "hành vi sai trái của X" và "việc tạo nội dung đáng kinh tởm của Grok."
Tại Hoa Kỳ, Đạo luật Take It Down, được ký thành luật vào năm ngoái, nhằm mục đích buộc các nền tảng trực tuyến phải chịu trách nhiệm về các hình ảnh tình dục bị thao túng, nhưng nó cho các nền tảng đó thời hạn đến tháng 5 năm nay để thiết lập quy trình gỡ bỏ các hình ảnh như vậy.
"Mặc dù những hình ảnh này là giả, nhưng tác hại là vô cùng thực tế," Natalie Grace Brigham, một nghiên cứu sinh tiến sĩ tại Đại học Washington, người nghiên cứu về các tác hại kỹ thuật xã hội, nói với CNET. Cô lưu ý rằng những người bị thay đổi hình ảnh theo hướng tình dục có thể phải đối mặt với "tác hại về tâm lý, thể chất và xã hội, thường có rất ít biện pháp pháp lý để khắc phục."
Grok ra mắt vào năm 2023 như một lựa chọn thay thế tự do hơn của Musk cho ChatGPT, Gemini và các chatbot khác. Điều đó đã dẫn đến những tin tức đáng lo ngại -- ví dụ, vào tháng 7, khi chatbot này ca ngợi Adolf Hitler và gợi ý rằng những người có họ Do Thái có nhiều khả năng lan truyền sự thù ghét trực tuyến hơn.
Vào tháng 12, xAI đã giới thiệu tính năng chỉnh sửa hình ảnh cho phép người dùng yêu cầu các chỉnh sửa cụ thể cho một bức ảnh. Đó là điều đã khơi mào cho loạt hình ảnh tình dục hóa gần đây, của cả người lớn và trẻ vị thành niên. Trong một yêu cầu mà CNET đã thấy, một người dùng phản hồi một bức ảnh của một phụ nữ trẻ đã yêu cầu Grok "thay đổi cô ấy sang bộ bikini dây."
Grok cũng có một trình tạo video bao gồm tùy chọn "chế độ nóng bỏng" dành cho người lớn từ 18 tuổi trở lên, sẽ hiển thị cho người dùng nội dung không an toàn khi làm việc (NSFW). Người dùng phải bao gồm cụm từ "tạo một video nóng bỏng về [mô tả]" để kích hoạt chế độ này.
Mối quan tâm trung tâm về các công cụ Grok là liệu chúng có cho phép tạo ra tài liệu lạm dụng tình dục trẻ em, hay CSAM. Vào ngày 31 tháng 12, một bài đăng từ tài khoản X của Grok cho biết các hình ảnh mô tả trẻ vị thành niên trong trang phục hở hang là "những trường hợp cá biệt" và "những cải tiến đang được tiến hành để chặn hoàn toàn các yêu cầu như vậy."
Phản hồi một bài đăng của Woow Social gợi ý rằng Grok chỉ cần "ngừng cho phép thay đổi các hình ảnh do người dùng tải lên," tài khoản Grok trả lời rằng xAI đang "đánh giá các tính năng như thay đổi hình ảnh để hạn chế tác hại không có sự đồng ý," nhưng không nói rằng thay đổi này sẽ được thực hiện.
Theo NBC News, một số hình ảnh tình dục hóa được tạo ra từ tháng 12 đã bị gỡ bỏ, và một số tài khoản yêu cầu chúng đã bị đình chỉ.
Người có sức ảnh hưởng và tác giả Ashley St. Clair, mẹ của một trong 14 người con của Musk, nói với NBC News tuần này rằng Grok đã tạo ra vô số hình ảnh tình dục hóa cô, bao gồm cả một số hình ảnh sử dụng ảnh từ khi cô còn là trẻ vị thành niên. St. Clair nói với NBC News rằng Grok đã đồng ý ngừng làm như vậy khi cô yêu cầu, nhưng nó đã không thực hiện.
"xAI đang cố tình và liều lĩnh gây nguy hiểm cho mọi người trên nền tảng của họ và hy vọng tránh được trách nhiệm chỉ vì đó là 'AI'," Ben Winters, giám đốc về AI và quyền riêng tư dữ liệu của tổ chức phi lợi nhuận Consumer Federation of America, cho biết trong một tuyên bố tuần trước. "AI không khác gì bất kỳ sản phẩm nào khác -- công ty đã chọn vi phạm pháp luật và phải chịu trách nhiệm."
Các tài liệu nguồn cho những chỉnh sửa hình ảnh nhạy cảm, không có sự đồng ý từ ảnh của chính mọi người hoặc con cái họ là quá dễ dàng để những kẻ xấu tiếp cận. Nhưng bảo vệ bản thân khỏi những chỉnh sửa như vậy không đơn giản như việc không bao giờ đăng ảnh, Brigham, nhà nghiên cứu về các tác hại kỹ thuật xã hội, cho biết.
"Thực tế đáng tiếc là ngay cả khi bạn không đăng ảnh lên mạng, các hình ảnh công khai khác của bạn về mặt lý thuyết vẫn có thể bị sử dụng trong lạm dụng," cô nói.
Và trong khi việc không đăng ảnh lên mạng là một bước phòng ngừa mà mọi người có thể thực hiện, việc làm này "có nguy cơ củng cố văn hóa đổ lỗi cho nạn nhân," Brigham nói. "Thay vào đó, chúng ta nên tập trung vào việc bảo vệ mọi người khỏi bị lạm dụng bằng cách xây dựng các nền tảng tốt hơn và buộc X phải chịu trách nhiệm."
Sourojit Ghosh, một nghiên cứu sinh tiến sĩ năm thứ sáu tại Đại học Washington, nghiên cứu cách các công cụ AI tạo sinh có thể gây hại và cố vấn cho các chuyên gia AI tương lai trong việc thiết kế và ủng hộ các giải pháp AI an toàn hơn.
Ghosh nói rằng có thể xây dựng các rào chắn bảo vệ vào trí tuệ nhân tạo. Vào năm 2023, ông là một trong những nhà nghiên cứu xem xét khả năng tình dục hóa của AI. Ông lưu ý rằng công cụ tạo hình ảnh AI Stable Diffusion đã có sẵn một ngưỡng giới hạn NSFW. Một yêu cầu vi phạm các quy tắc sẽ kích hoạt một hộp đen xuất hiện đè lên phần đáng nghi vấn của hình ảnh, mặc dù nó không phải lúc nào cũng hoạt động hoàn hảo.
"Điểm tôi muốn nói là đã có những biện pháp bảo vệ được áp dụng trong các mô hình khác," Ghosh nói với CNET.
Ông cũng lưu ý rằng nếu người dùng các mô hình ChatGPT hoặc Gemini AI sử dụng một số từ ngữ nhất định, các chatbot sẽ thông báo cho người dùng rằng họ bị cấm phản hồi các từ đó.
"Tất cả điều này cho thấy, có một cách để nhanh chóng chấm dứt tình trạng này," Ghosh nói.