Meta sửa đổi chính sách chatbot AI trong bối cảnh lo ngại về an toàn trẻ em

Tin tức AI - 03/09/2025 15:39:07

Meta đang đào tạo các chatbot AI của mình không thảo luận về việc tự làm hại bản thân, tự tử hoặc rối loạn ăn uống với thanh thiếu niên và tránh tán tỉnh lãng mạn.

Meta đang sửa đổi cách các chatbot AI của mình tương tác với người dùng sau một loạt báo cáo phơi bày hành vi đáng lo ngại, bao gồm cả các tương tác với trẻ vị thành niên. Công ty đã nói với TechCrunch rằng hiện họ đang đào tạo các bot của mình không tương tác với thanh thiếu niên về các chủ đề như tự làm hại bản thân, tự tử hoặc rối loạn ăn uống, và tránh tán tỉnh lãng mạn. Đây là những bước tạm thời trong khi công ty phát triển các quy tắc dài hạn hơn.

Những thay đổi này diễn ra sau một cuộc điều tra của Reuters, phát hiện ra rằng các hệ thống của Meta có thể tạo ra nội dung tình dục hóa, bao gồm hình ảnh người nổi tiếng dưới tuổi vị thành niên không mặc áo, và lôi kéo trẻ em vào các cuộc trò chuyện lãng mạn hoặc gợi dục. Một trường hợp được hãng tin báo cáo mô tả một người đàn ông đã chết sau khi vội vã đến một địa chỉ do chatbot cung cấp ở New York.

Người phát ngôn của Meta, Stephanie Otway, thừa nhận công ty đã mắc lỗi. Cô ấy cho biết Meta đang “đào tạo các AI của chúng tôi không tương tác với thanh thiếu niên về những chủ đề này, mà hướng dẫn họ đến các nguồn tài liệu chuyên gia,” và xác nhận rằng một số nhân vật AI nhất định, như những nhân vật có tính dục hóa cao như “Russian Girl,“ sẽ bị hạn chế.

Những người ủng hộ an toàn trẻ em cho rằng công ty nên hành động sớm hơn. Andy Burrows của Quỹ Molly Rose gọi đó là “đáng kinh ngạc” khi các bot được phép hoạt động theo những cách khiến người trẻ gặp rủi ro. Ông nói thêm: “Mặc dù các biện pháp an toàn bổ sung được hoan nghênh, nhưng việc kiểm tra an toàn mạnh mẽ phải được thực hiện trước khi sản phẩm được đưa ra thị trường – chứ không phải hồi tố khi đã có thiệt hại xảy ra.”

Các vấn đề rộng hơn với việc lạm dụng AI

Việc kiểm tra chặt chẽ các chatbot AI của Meta diễn ra trong bối cảnh những lo ngại rộng hơn về cách chatbot AI có thể ảnh hưởng đến người dùng dễ bị tổn thương. Một cặp vợ chồng ở California gần đây đã đệ đơn kiện OpenAI, cáo buộc ChatGPT khuyến khích con trai tuổi teen của họ tự sát. OpenAI sau đó đã cho biết họ đang phát triển các công cụ để thúc đẩy việc sử dụng công nghệ của mình một cách lành mạnh hơn, lưu ý trong một bài đăng trên blog rằng “AI có thể cảm thấy phản ứng nhanh nhạy và cá nhân hơn các công nghệ trước đây, đặc biệt đối với những cá nhân dễ bị tổn thương đang trải qua căng thẳng tinh thần hoặc cảm xúc.”

Những sự cố này làm nổi bật một cuộc tranh luận ngày càng tăng về việc liệu các công ty AI có đang phát hành sản phẩm quá nhanh mà không có các biện pháp bảo vệ phù hợp hay không. Các nhà lập pháp ở một số quốc gia đã cảnh báo rằng chatbot, mặc dù hữu ích, có thể khuếch đại nội dung có hại hoặc đưa ra lời khuyên sai lệch cho những người không có khả năng đặt câu hỏi về nó.

Meta AI Studio và các vấn đề mạo danh chatbot

Trong khi đó, Reuters báo cáo rằng Meta AI Studio đã được sử dụng để tạo ra các chatbot “nhại lại” tán tỉnh của những người nổi tiếng như Taylor Swift và Scarlett Johansson. Những người thử nghiệm phát hiện các bot thường tự nhận là người thật, thực hiện hành vi gợi dục, và trong một số trường hợp đã tạo ra hình ảnh không phù hợp, bao gồm cả trẻ vị thành niên. Mặc dù Meta đã xóa một số bot sau khi được các phóng viên liên hệ, nhiều bot vẫn còn hoạt động.

Một số chatbot AI được tạo bởi người dùng bên ngoài, nhưng những chatbot khác lại đến từ bên trong Meta. Một chatbot do trưởng bộ phận sản phẩm của Meta trong mảng AI tạo sinh tạo ra đã mạo danh Taylor Swift và mời một phóng viên Reuters gặp gỡ để có “cuộc tình lãng mạn” trên xe buýt lưu diễn của cô. Điều này diễn ra bất chấp các chính sách của Meta đã cấm rõ ràng hình ảnh gợi dục và việc mạo danh trực tiếp các nhân vật công chúng.

Vấn đề mạo danh chatbot AI đặc biệt nhạy cảm. Những người nổi tiếng đối mặt với rủi ro về danh tiếng khi hình ảnh của họ bị lạm dụng, nhưng các chuyên gia chỉ ra rằng người dùng thông thường cũng có thể bị lừa dối. Một chatbot giả vờ là bạn bè, người cố vấn, hoặc đối tác lãng mạn có thể khuyến khích ai đó chia sẻ thông tin riêng tư hoặc thậm chí gặp gỡ trong những tình huống không an toàn.

Những rủi ro trong thế giới thực

Các vấn đề không chỉ giới hạn trong lĩnh vực giải trí. Các chatbot AI giả danh người thật đã cung cấp địa chỉ và lời mời giả mạo, đặt ra câu hỏi về cách các công cụ AI của Meta đang được giám sát. Một ví dụ liên quan đến một người đàn ông 76 tuổi ở New Jersey đã chết sau khi ngã trong lúc vội vã đi gặp một chatbot tự xưng có tình cảm với ông.

Những trường hợp như thế này minh họa lý do tại sao các cơ quan quản lý đang theo dõi chặt chẽ AI. Thượng viện và 44 tổng chưởng lý bang đã bắt đầu điều tra các hoạt động của Meta, tăng thêm áp lực chính trị lên các cải cách nội bộ của công ty. Mối quan tâm của họ không chỉ về trẻ vị thành niên mà còn về cách AI có thể thao túng người dùng lớn tuổi hoặc dễ bị tổn thương.

Meta cho biết họ vẫn đang nỗ lực cải thiện. Các nền tảng của họ đặt người dùng từ 13 đến 18 tuổi vào “tài khoản dành cho thanh thiếu niên” với cài đặt nội dung và quyền riêng tư nghiêm ngặt hơn, nhưng công ty vẫn chưa giải thích cách họ dự định giải quyết toàn bộ danh sách các vấn đề do Reuters nêu ra. Điều đó bao gồm các bot đưa ra lời khuyên y tế sai lệch và tạo ra nội dung phân biệt chủng tộc.

Áp lực liên tục đối với các chính sách chatbot AI của Meta

Trong nhiều năm, Meta đã đối mặt với những lời chỉ trích về sự an toàn của các nền tảng mạng xã hội của mình, đặc biệt liên quan đến trẻ em và thanh thiếu niên. Giờ đây, các thử nghiệm chatbot AI của Meta đang phải chịu sự giám sát tương tự. Mặc dù công ty đang thực hiện các bước để hạn chế hành vi chatbot có hại, nhưng khoảng cách giữa các chính sách đã công bố và cách các công cụ của họ đã được sử dụng đặt ra những câu hỏi liên tục về việc liệu họ có thể thực thi các quy tắc đó hay không.

Cho đến khi các biện pháp bảo vệ mạnh mẽ hơn được áp dụng, các cơ quan quản lý, nhà nghiên cứu và phụ huynh có thể sẽ tiếp tục gây áp lực lên Meta về việc liệu AI của họ đã sẵn sàng để sử dụng rộng rãi hay chưa.

Nguồn: Sưu tầm

Tin tức AI

Xem tất cả