Tôi cầu xin bạn đừng nhân hóa AI nữa. Đây là lý do tại sao điều đó có hại

Tin tức AI - 13/12/2025 18:20:44

Bình luận: Khi chúng ta gán trí tuệ cảm xúc cho một thực thể không hề có, chúng ta bắt đầu tin tưởng AI theo những cách mà nó không bao giờ được thiết kế để đáng tin cậy.

Trong cuộc chạy đua nhằm làm cho các mô hình AI ngày càng trở nên ấn tượng, các công ty công nghệ đã áp dụng một cách tiếp cận ngôn ngữ mang tính sân khấu. Họ liên tục nói về AI như thể đó là một con người. Không chỉ về việc AI "suy nghĩ" hay "lên kế hoạch" -- những từ ngữ đó vốn đã đầy rẫy vấn đề -- mà giờ đây họ còn thảo luận về một "linh hồn" của mô hình AI và cách các mô hình "thú nhận", "mong muốn", "mưu đồ" hay "cảm thấy không chắc chắn".

Đây không phải là một chiêu trò tiếp thị vô hại. Việc nhân hóa AI là sai lầm, vô trách nhiệm và cuối cùng làm suy yếu sự hiểu biết của công chúng về một công nghệ vốn đã gặp khó khăn trong việc minh bạch, vào thời điểm mà sự rõ ràng là quan trọng nhất.

Nghiên cứu từ các công ty AI lớn, nhằm mục đích làm sáng tỏ hành vi của AI tạo sinh, thường được trình bày theo những cách làm che khuất nhiều hơn là soi sáng. Ví dụ, một bài đăng gần đây từ OpenAI trình bày chi tiết công việc của họ về việc khiến các mô hình "thú nhận" lỗi hoặc các cách làm tắt của chúng. Đây là một thử nghiệm có giá trị nhằm tìm hiểu cách một chatbot tự báo cáo một số "hành vi sai trái", như ảo giác và mưu đồ. Nhưng cách OpenAI mô tả quy trình này là một "lời thú tội" ngụ ý rằng có một yếu tố tâm lý đằng sau các đầu ra của một mô hình ngôn ngữ lớn. 

Có lẽ điều đó bắt nguồn từ việc nhận ra rằng việc một LLM đạt được sự minh bạch thực sự khó khăn đến mức nào. Chúng ta đã thấy rằng, chẳng hạn, các mô hình AI không thể chứng minh đáng tin cậy công việc của chúng trong các hoạt động như giải các câu đố Sudoku. 

Có một khoảng cách giữa những gì AI có thể tạo ra và cách thức nó tạo ra, đó chính xác là lý do tại sao thuật ngữ giống con người này lại nguy hiểm đến vậy. Chúng ta có thể thảo luận về những giới hạn và mối nguy hiểm thực sự của công nghệ này, nhưng những thuật ngữ gán nhãn AI là những thực thể có tri giác chỉ làm giảm bớt lo ngại hoặc che đậy rủi ro. 

AI không có linh hồn 

Các hệ thống AI không có linh hồn, động cơ, cảm xúc hay đạo đức. Chúng không "thú nhận" vì chúng cảm thấy bị lương tâm thúc đẩy, giống như một chiếc máy tính không "xin lỗi" khi bạn bấm nhầm phím. Các hệ thống này tạo ra các mẫu văn bản dựa trên các mối quan hệ thống kê được học từ các bộ dữ liệu khổng lồ. 

Chỉ vậy thôi. 

Bất cứ điều gì mà cảm thấy giống con người đều là sự phản chiếu đời sống nội tâm của chúng ta lên một tấm gương rất tinh vi.

Việc nhân hóa AI khiến mọi người có suy nghĩ sai lầm về bản chất thực sự của các hệ thống này. Và điều đó có những hậu quả. Khi chúng ta bắt đầu gán ý thức và trí tuệ cảm xúc cho một thực thể không tồn tại, chúng ta bắt đầu tin tưởng AI theo những cách mà nó không bao giờ được thiết kế để đáng tin cậy. 

Ngày nay, nhiều người tìm đến "Bác sĩ ChatGPT" để xin lời khuyên y tế thay vì dựa vào các bác sĩ lâm sàng có bằng cấp và trình độ. Những người khác đang chuyển sang sử dụng các phản hồi do AI tạo ra trong các lĩnh vực như tài chính, sức khỏe cảm xúc và các mối quan hệ cá nhân. Một số đang hình thành tình bạn giả tạo phụ thuộc với chatbot và nhờ chúng hướng dẫn, cho rằng bất cứ điều gì một LLM đưa ra đều "đủ tốt" để định hướng các quyết định và hành động của họ. 

Cách chúng ta nên nói về AI

Khi các công ty sử dụng ngôn ngữ nhân hóa, họ làm mờ ranh giới giữa mô phỏng và tri giác. Thuật ngữ này thổi phồng kỳ vọng, gây ra sợ hãi và làm xao nhãng khỏi những vấn đề thực sự đáng được chúng ta quan tâm: sự thiên vị trong các bộ dữ liệu, việc sử dụng sai mục đích bởi những kẻ xấu, an toàn, độ tin cậy và sự tập trung quyền lực. Không một chủ đề nào trong số đó yêu cầu những phép ẩn dụ huyền bí.

Hãy xem xét tài liệu nội bộ gần đây bị rò rỉ của Anthropic, có tên là "tài liệu linh hồn," được sử dụng để đào tạo tính cách, nhận thức bản thân và danh tính của Claude Opus 4.5. Tài liệu nội bộ kỳ lạ này ban đầu không nhằm đưa ra một tuyên bố siêu hình – mà giống như các kỹ sư của họ đang viết một hướng dẫn gỡ lỗi. Tuy nhiên, ngôn ngữ mà các công ty này sử dụng đằng sau cánh cửa đóng kín chắc chắn sẽ thấm vào cách công chúng nói về chúng. Và một khi ngôn ngữ đó bén rễ, nó sẽ định hình suy nghĩ của chúng ta về công nghệ, cũng như cách chúng ta hành xử xung quanh nó.

Hoặc lấy ví dụ nghiên cứu của OpenAI về AI "mưu đồ", nơi một vài phản hồi hiếm gặp nhưng gây hiểu lầm đã khiến một số nhà nghiên cứu kết luận rằng các mô hình cố tình che giấu một số khả năng nhất định. Việc xem xét kỹ lưỡng kết quả AI là một thực hành tốt; nhưng ngụ ý rằng chatbot có thể có động cơ hoặc chiến lược riêng thì không phải. Báo cáo của OpenAI thực sự nói rằng những hành vi này là kết quả của dữ liệu đào tạo và một số xu hướng gợi ý nhất định, chứ không phải dấu hiệu lừa dối. Nhưng vì nó sử dụng từ "mưu đồ," cuộc trò chuyện đã chuyển sang lo ngại về việc AI là một loại tác nhân xảo quyệt.    

Có những từ ngữ tốt hơn, chính xác hơn và mang tính kỹ thuật hơn. Thay vì "linh hồn," hãy nói về kiến trúc hoặc quá trình đào tạo của một mô hình. Thay vì "thú nhận," hãy gọi đó là báo cáo lỗi hoặc kiểm tra tính nhất quán nội bộ. Thay vì nói một mô hình "mưu đồ," hãy mô tả quá trình tối ưu hóa của nó. Chúng ta nên đề cập đến AI bằng các thuật ngữ như xu hướng, đầu ra, biểu diễn, bộ tối ưu hóa, cập nhật mô hình hoặc động lực đào tạo. Chúng không kịch tính như "linh hồn" hay "thú nhận," nhưng chúng có lợi thế là dựa trên thực tế.

Công bằng mà nói, có những lý do khiến các hành vi LLM này có vẻ giống con người -- các công ty đã huấn luyện chúng để bắt chước chúng ta. 

Như các tác giả của bài báo năm 2021 "Về những hiểm họa của vẹt ngẫu nhiên (Stochastic Parrots)" đã chỉ ra, các hệ thống được xây dựng để tái tạo ngôn ngữ và giao tiếp của con người cuối cùng sẽ phản ánh điều đó -- cách dùng từ, cú pháp, giọng điệu và ngữ điệu của chúng ta. Sự giống nhau không ngụ ý sự hiểu biết thực sự. Nó có nghĩa là mô hình đang thực hiện những gì nó đã được tối ưu hóa để làm. Khi một chatbot bắt chước một cách thuyết phục như các chatbot hiện nay có thể làm được, chúng ta cuối cùng lại gán phẩm chất con người vào máy móc, mặc dù không có điều đó tồn tại.

Ngôn ngữ định hình nhận thức của công chúng. Khi các từ ngữ cẩu thả, huyền ảo hoặc cố ý nhân hóa, công chúng sẽ có một bức tranh méo mó. Sự méo mó đó chỉ mang lại lợi ích cho một nhóm: các công ty AI kiếm lời từ việc các LLM có vẻ có khả năng, hữu ích và giống con người hơn so với thực tế.

Nếu các công ty AI muốn xây dựng lòng tin của công chúng, bước đầu tiên rất đơn giản. Hãy ngừng coi các mô hình ngôn ngữ như những thực thể huyền bí có linh hồn. Chúng không có cảm xúc -- chúng ta mới có. Lời nói của chúng ta nên phản ánh điều đó, chứ không phải che giấu nó.

Nguồn: cnet.com

Tin tức AI

Xem tất cả