AI không phải là con người. Vì vậy hãy ngừng nói về nó như thể nó là một trong chúng ta

Tin tức AI - 19/12/2025 23:15:03

Bình luận: Ngôn ngữ định hình nhận thức của công chúng. Khi ngôn từ được sử dụng một cách cẩu thả hoặc bị nhân hóa một cách cố ý, công chúng sẽ có một cái nhìn sai lệch về những gì AI có thể và không thể làm.

Trong cuộc đua làm cho các mô hình AI ngày càng ấn tượng, các công ty công nghệ đã áp dụng một cách tiếp cận mang tính kịch nghệ đối với ngôn ngữ. Họ liên tục nói về AI như thể nó là một con người. Không chỉ về việc AI "tư duy" hay "lập kế hoạch" -- những từ đó vốn đã đầy rẫy vấn đề -- mà giờ đây họ còn thảo luận về "linh hồn" của một mô hình AI và cách các mô hình "thú nhận", "muốn", "mưu đồ" hoặc "cảm thấy không chắc chắn".

Đây không phải là một sự tô vẽ tiếp thị vô hại. Việc nhân hóa AI là gây hiểu lầm, vô trách nhiệm và cuối cùng là làm xói mòn sự hiểu biết của công chúng về một công nghệ vốn đã gặp khó khăn về tính minh bạch, vào đúng thời điểm mà sự rõ ràng là quan trọng nhất.

Nghiên cứu từ các công ty AI lớn, nhằm làm sáng tỏ hành vi của AI tạo sinh, thường được đóng khung theo những cách gây mơ hồ nhiều hơn là soi sáng. Lấy ví dụ, một bài đăng gần đây từ OpenAI trình bày chi tiết về công việc giúp các mô hình của họ "thú nhận" những sai lầm hoặc các lối tắt của chúng. Đó là một thử nghiệm có giá trị nhằm thăm dò cách một chatbot tự báo cáo một số "hành vi sai trái", như ảo giác và mưu đồ. Nhưng mô tả của OpenAI về quá trình này như một sự "thú nhận" ngụ ý rằng có một yếu tố tâm lý đằng sau các đầu ra của một mô hình ngôn ngữ lớn. 

Có lẽ điều đó bắt nguồn từ việc nhận ra sự khó khăn như thế nào để một LLM đạt được tính minh bạch thực sự. Chúng ta đã thấy rằng, chẳng hạn, các mô hình AI không thể chứng minh một cách đáng tin cậy công việc của chúng trong các hoạt động như giải câu đố Sudoku. 

Có một khoảng cách giữa những gì AI có thể tạo ra và cách nó tạo ra điều đó, và đây chính xác là lý do tại sao thuật ngữ giống con người này lại nguy hiểm đến vậy. Chúng ta có thể đang thảo luận về những giới hạn và mối nguy hiểm thực sự của công nghệ này, nhưng những thuật ngữ gắn mác AI là những thực thể có nhận thức chỉ làm giảm bớt sự lo ngại hoặc lấp liếm các rủi ro. 

AI không có linh hồn 

Các hệ thống AI không có linh hồn, động cơ, cảm xúc hay đạo đức. Chúng không "thú nhận" vì cảm thấy bị thúc ép bởi sự trung thực, cũng giống như một chiếc máy tính bỏ túi không hề "xin lỗi" khi bạn nhấn nhầm phím. Các hệ thống này tạo ra các mẫu văn bản dựa trên các mối quan hệ thống kê học được từ các tập dữ liệu khổng lồ. 

Chỉ vậy thôi. 

Bất cứ điều gì mang lại cảm giác giống con người đều là sự phản chiếu nội tâm của chúng ta lên một chiếc gương rất tinh vi.

Nhân hóa AI mang lại cho mọi người ý niệm sai lầm về bản chất thực sự của các hệ thống này. Và điều đó dẫn đến những hệ quả. Khi chúng ta bắt đầu gán ý thức và trí tuệ cảm xúc cho một thực thể không hề tồn tại những thứ đó, chúng ta bắt đầu tin tưởng AI theo những cách mà nó chưa bao giờ được thiết kế để được tin tưởng. 

Ngày nay, ngày càng nhiều người tìm đến "Bác sĩ ChatGPT" để được hướng dẫn y tế thay vì dựa vào các bác sĩ lâm sàng có trình độ và được cấp phép. Những người khác đang tìm đến các phản hồi do AI tạo ra trong các lĩnh vực như tài chính, sức khỏe tinh thần và các mối quan hệ cá nhân. Một số người đang hình thành những mối quan hệ bạn bè giả tạo phụ thuộc vào chatbot và nghe theo sự hướng dẫn của chúng, giả định rằng bất cứ điều gì một LLM đưa ra đều "đủ tốt" để định hướng cho các quyết định và hành động của họ. 

Chúng ta nên nói về AI như thế nào

Khi các công ty lạm dụng ngôn ngữ nhân hóa, họ đã xóa nhòa ranh giới giữa mô phỏng và tri giác. Thuật ngữ này thổi phồng kỳ vọng, gây ra nỗi sợ hãi và làm xao nhãng khỏi những vấn đề thực tế thực sự xứng đáng được chúng ta chú ý: sự thiên kiến trong các tập dữ liệu, sự lạm dụng bởi các tác nhân xấu, tính an toàn, độ tin cậy và sự tập trung quyền lực. Không có chủ đề nào trong số đó cần đến những ẩn dụ thần bí.

Hãy xem vụ rò rỉ gần đây của Anthropic về "tài liệu linh hồn," được sử dụng để đào tạo tính cách, nhận thức bản thân và bản sắc của Claude Opus 4.5. Mẩu tài liệu nội bộ kỳ quặc này chưa bao giờ có ý định đưa ra một tuyên bố siêu hình -- nó giống như việc các kỹ sư đang sáng tác ngẫu hứng dựa trên một hướng dẫn gỡ lỗi. Tuy nhiên, ngôn ngữ mà các công ty này sử dụng sau cánh cửa đóng kín chắc chắn sẽ ngấm vào cách công chúng thảo luận về chúng. Và một khi ngôn ngữ đó đã bám rễ, nó sẽ định hình suy nghĩ của chúng ta về công nghệ, cũng như cách chúng ta hành xử xung quanh nó.

Hoặc hãy xem nghiên cứu của OpenAI về nghiên cứu về "mưu đồ" của AI, nơi một vài phản hồi hiếm hoi nhưng mang tính lừa dối đã khiến một số nhà nghiên cứu kết luận rằng các mô hình đang cố ý che giấu một số khả năng nhất định. Việc xem xét kỹ lưỡng các kết quả của AI là một thói quen tốt; nhưng ngụ ý rằng các chatbot có thể có động cơ hoặc chiến lược riêng thì không. Báo cáo của OpenAI thực chất nói rằng những hành vi này là kết quả của dữ liệu đào tạo và một số xu hướng gợi nhắc (prompt), chứ không phải dấu hiệu của sự lừa dối. Nhưng vì nó sử dụng từ "mưu đồ", cuộc hội thoại đã chuyển sang những lo ngại về việc AI là một loại tác nhân gian xảo.    

Có những từ ngữ tốt hơn, chính xác hơn và mang tính kỹ thuật hơn. Thay vì "linh hồn", hãy nói về kiến trúc hoặc quá trình đào tạo của mô hình. Thay vì "thú nhận", hãy gọi đó là báo cáo lỗi hoặc kiểm tra tính nhất quán nội bộ. Thay vì nói một mô hình "mưu đồ", hãy mô tả quá trình tối ưu hóa của nó. Chúng ta nên gọi AI bằng các thuật ngữ như xu hướng, đầu ra, biểu diễn, bộ tối ưu hóa, cập nhật mô hình hoặc động lực đào tạo. Chúng không kịch tính như "linh hồn" hay "thú nhận", nhưng chúng có ưu điểm là dựa trên thực tế.

Công bằng mà nói, có những lý do khiến các hành vi của LLM này trông giống con người -- các công ty đã đào tạo chúng để bắt chước chúng ta. 

Như các tác giả của bài báo năm 2021 "Về những nguy hiểm của vẹt ngẫu nhiên" đã chỉ ra, các hệ thống được xây dựng để sao chép ngôn ngữ và giao tiếp của con người cuối cùng sẽ phản chiếu nó -- từ ngữ, cú pháp, giọng điệu và âm hưởng của chúng ta. Sự tương đồng không hàm ý sự hiểu biết thực sự. Nó có nghĩa là mô hình đang thực hiện những gì nó được tối ưu hóa để làm. Khi một chatbot bắt chước một cách thuyết phục như các chatbot hiện nay có thể làm, chúng ta cuối cùng sẽ gán tính nhân bản vào máy móc, ngay cả khi không hề có điều đó hiện diện.

Ngôn ngữ định hình nhận thức của công chúng. Khi ngôn từ cẩu thả, thần bí hoặc mang tính nhân hóa một cách cố ý, công chúng sẽ nhận được một bức tranh sai lệch. Sự sai lệch đó chỉ có lợi cho một nhóm duy nhất: các công ty AI thu lợi từ việc LLM có vẻ có năng lực, hữu ích và giống con người hơn thực tế.

Nếu các công ty AI muốn xây dựng niềm tin của công chúng, bước đầu tiên rất đơn giản. Hãy ngừng đối xử với các mô hình ngôn ngữ như những thực thể huyền bí có linh hồn. Chúng không có cảm xúc -- chúng ta mới có. Ngôn từ của chúng ta nên phản ánh điều đó, chứ không phải che giấu nó.

Nguồn: cnet.com

Tin tức AI

Xem tất cả