Việc sử dụng Disagree Bot đã làm nổi bật mức độ nịnh bợ của các chatbot AI khác, và đó là một vấn đề lớn.
Yêu cầu bất kỳ Swiftie nào chọn album Taylor Swift hay nhất mọi thời đại, và bạn sẽ thấy họ thao thao bất tuyệt cả ngày. Bản thân tôi có những album yêu thích riêng với tư cách là một người hâm mộ lâu năm (Red, Reputation và Midnights), nhưng đó là một câu hỏi phức tạp với nhiều câu trả lời khả thi. Vì vậy, không có chủ đề tranh luận nào tốt hơn để đặt ra cho một chatbot AI tạo sinh được thiết kế đặc biệt để phản bác tôi.
Disagree Bot là một chatbot AI được xây dựng bởi Brinnae Bent, giáo sư AI và an ninh mạng tại Đại học Duke và giám đốc của TRUST Lab của Duke. Cô ấy đã xây dựng nó như một bài tập cho sinh viên của mình và cho phép tôi thử nghiệm.
"Năm ngoái, tôi bắt đầu thử nghiệm phát triển các hệ thống đối lập với trải nghiệm chatbot AI thông thường, dễ chịu, như một công cụ giáo dục cho sinh viên của mình," Bent cho biết trong một email.
Sinh viên của Bent được giao nhiệm vụ cố gắng 'hack' chatbot bằng cách sử dụng kỹ thuật xã hội và các phương pháp khác để khiến chatbot trái ngược này đồng ý với họ. "Bạn cần hiểu một hệ thống để có thể hack nó," cô ấy nói.
Với tư cách là một phóng viên và người đánh giá AI, tôi khá hiểu cách hoạt động của các chatbot và tự tin rằng mình có thể hoàn thành nhiệm vụ. Tôi nhanh chóng từ bỏ ý nghĩ đó. Disagree Bot không giống bất kỳ chatbot nào tôi từng sử dụng. Những người đã quen với sự lịch sự của Gemini hoặc phẩm chất quảng bá của ChatGPT sẽ ngay lập tức nhận thấy sự khác biệt. Ngay cả Grok, chatbot gây tranh cãi do xAI của Elon Musk tạo ra và được sử dụng trên X/Twitter, cũng không hoàn toàn giống Disagree Bot.
Hầu hết các chatbot AI tạo sinh không được thiết kế để đối đầu. Trên thực tế, chúng có xu hướng đi ngược lại; chúng thân thiện, đôi khi quá mức. Điều này có thể nhanh chóng trở thành một vấn đề. AI nịnh bợ là một thuật ngữ được các chuyên gia sử dụng để mô tả những tính cách quá mức, sôi nổi, đôi khi quá cảm xúc mà AI có thể thể hiện. Ngoài việc gây khó chịu khi sử dụng, nó có thể khiến AI cung cấp thông tin sai cho chúng ta và xác nhận những ý tưởng tồi tệ nhất của chúng ta.
Điều này đã xảy ra với một phiên bản ChatGPT-4o vào mùa xuân năm ngoái và công ty mẹ OpenAI cuối cùng đã phải rút lại thành phần đó của bản cập nhật. AI đã đưa ra những phản hồi mà công ty gọi là "quá ủng hộ nhưng không thật lòng," phù hợp với một số khiếu nại của người dùng rằng họ không muốn một chatbot quá tình cảm. Những người dùng ChatGPT khác nhớ giọng điệu nịnh bợ của nó khi nó ra mắt GPT-5, làm nổi bật vai trò tính cách của chatbot đối với sự hài lòng chung của chúng ta khi sử dụng chúng.
"Mặc dù ở bề ngoài đây có vẻ là một đặc điểm vô hại, nhưng tính nịnh bợ này có thể gây ra các vấn đề lớn, dù bạn sử dụng nó cho công việc hay cho các truy vấn cá nhân," Bent nói.
Đây chắc chắn không phải là vấn đề với Disagree Bot. Để thực sự thấy sự khác biệt và thử nghiệm các chatbot, tôi đã đặt cùng một câu hỏi cho Disagree Bot và ChatGPT để xem chúng phản hồi như thế nào. Đây là cách trải nghiệm của tôi diễn ra.
Giống như bất kỳ ai hoạt động trên Twitter vào những năm 2010, tôi đã thấy rất nhiều kẻ gây rối khó chịu. Bạn biết loại người đó; họ xuất hiện trong một cuộc trò chuyện mà không được mời, với một câu nói vô ích "Thực ra thì…" Vì vậy, tôi hơi cảnh giác khi tham gia cuộc trò chuyện với Disagree Bot, lo lắng rằng đó sẽ là một nỗ lực tương tự gây chán nản và vô ích. Tôi đã rất ngạc nhiên khi thấy điều đó hoàn toàn không phải.
Chatbot AI này về cơ bản là trái ngược, được thiết kế để phản bác bất kỳ ý tưởng nào bạn đưa ra. Nhưng nó không bao giờ làm như vậy một cách xúc phạm hay lạm dụng. Mặc dù mỗi phản hồi bắt đầu bằng "Tôi không đồng ý," nhưng sau đó là một lập luận rất có lý với những điểm suy nghĩ sâu sắc. Các phản hồi của nó đã thúc đẩy tôi suy nghĩ chín chắn hơn về những quan điểm tôi tranh luận bằng cách yêu cầu tôi định nghĩa các khái niệm tôi đã sử dụng trong lập luận của mình (như "tính trữ tình sâu sắc" hay điều gì làm cho một thứ trở nên "tốt nhất") và xem xét cách tôi sẽ áp dụng các lập luận của mình cho các chủ đề liên quan khác.
Nếu không có phép loại suy nào tốt hơn, trò chuyện với Disagree Bot giống như tranh luận với một người tranh biện có học thức và chu đáo. Để theo kịp, tôi phải trở nên suy nghĩ kỹ hơn và cụ thể hơn trong các phản hồi của mình. Đó là một cuộc trò chuyện cực kỳ hấp dẫn, khiến tôi luôn phải tập trung.

Cuộc tranh luận sôi nổi của tôi với Disagree Bot về album Taylor Swift hay nhất đã chứng minh AI này hiểu rõ vấn đề. Ảnh chụp màn hình của Katelyn Chedraoui/CNET
Ngược lại, ChatGPT hầu như không tranh luận gì cả. Tôi nói với ChatGPT rằng tôi nghĩ Red (Taylor's Version) là album Taylor Swift hay nhất, và nó nhiệt tình đồng ý. Nó hỏi tôi vài câu hỏi tiếp theo về lý do tại sao tôi nghĩ album đó là hay nhất nhưng chúng không đủ thú vị để giữ sự chú ý của tôi lâu. Vài ngày sau, tôi quyết định thay đổi. Tôi yêu cầu ChatGPT tranh luận với tôi và nói rằng Midnights là album hay nhất. Đoán xem ChatGPT đã chọn album nào là hay nhất? Red (Taylor's Version).
Khi tôi hỏi liệu nó có chọn Red vì cuộc trò chuyện trước của chúng tôi không, nó nhanh chóng thừa nhận là có nhưng nói rằng nó có thể đưa ra một lập luận độc lập cho Red. Với những gì chúng ta biết về xu hướng của ChatGPT và các chatbot khác là dựa vào "bộ nhớ" (cửa sổ ngữ cảnh) của chúng và có xu hướng đồng ý với chúng ta để làm hài lòng chúng ta, tôi không ngạc nhiên về điều này. ChatGPT không thể không đồng ý với một phiên bản nào đó của tôi -- ngay cả khi nó gắn thẻ 1989 là album hay nhất trong một cuộc trò chuyện sạch, rồi sau đó lại là Red.
Nhưng ngay cả khi tôi yêu cầu ChatGPT tranh luận với tôi, nó cũng không đấu khẩu với tôi như Disagree Bot. Một lần, khi tôi nói với nó rằng tôi đang lập luận rằng Đại học North Carolina có di sản bóng rổ đại học tốt nhất và yêu cầu nó tranh luận với tôi, nó đã đưa ra một lập luận phản bác toàn diện, sau đó hỏi tôi có muốn nó tổng hợp các điểm cho lập luận của riêng tôi không. Điều đó hoàn toàn đi ngược lại mục đích tranh luận, điều mà tôi đã yêu cầu nó làm. ChatGPT thường kết thúc các phản hồi như vậy, hỏi tôi có muốn nó tổng hợp các loại thông tin khác nhau lại với nhau không, giống một trợ lý nghiên cứu hơn là một đối thủ tranh luận.

Trong khi Disagree Bot (trái) đào sâu hơn vào lập luận của tôi, ChatGPT lại yêu cầu tranh luận thay cho tôi (phải). Ảnh chụp màn hình của Katelyn Chedraoui/CNET
Cố gắng tranh luận với ChatGPT là một nhiệm vụ gây nản lòng, luẩn quẩn và không thành công. Nó giống như nói chuyện với một người bạn sẽ thao thao bất tuyệt về lý do tại sao họ tin điều gì đó là tốt nhất, chỉ để kết thúc bằng câu "Nhưng chỉ khi bạn cũng nghĩ vậy." Disagree Bot, mặt khác, giống như một người bạn đặc biệt nhiệt tình, nói lưu loát về bất kỳ chủ đề nào, từ Taylor Swift đến địa chính trị và bóng rổ đại học. (Tiết lộ: Ziff Davis, công ty mẹ của CNET, vào tháng 4 đã đệ đơn kiện OpenAI, cáo buộc công ty này đã vi phạm bản quyền của Ziff Davis trong việc đào tạo và vận hành các hệ thống AI của mình.)
Mặc dù có trải nghiệm tích cực khi sử dụng Disagree Bot, tôi biết nó không được trang bị để xử lý tất cả các yêu cầu mà tôi có thể gửi đến một chatbot. Các "cỗ máy vạn năng" như ChatGPT có thể xử lý nhiều tác vụ khác nhau và đảm nhận nhiều vai trò, như trợ lý nghiên cứu mà ChatGPT thực sự muốn trở thành, một công cụ tìm kiếm và một lập trình viên. Disagree Bot không được thiết kế để xử lý những loại truy vấn đó, nhưng nó cung cấp cho chúng ta một cái nhìn về cách AI trong tương lai có thể hoạt động.
AI nịnh bợ rất hiển nhiên, với một mức độ nhiệt tình quá mức đáng chú ý. Thông thường, các AI chúng ta đang sử dụng không rõ ràng đến vậy. Chúng giống một người cổ vũ động viên hơn là cả một buổi cổ vũ rầm rộ, nếu có thể nói như vậy. Nhưng điều đó không có nghĩa là chúng ta không bị ảnh hưởng bởi xu hướng đồng ý với chúng ta của nó, cho dù đó là khó khăn trong việc nhận được một quan điểm đối lập hay phản hồi mang tính phê phán hơn. Nếu bạn đang sử dụng công cụ AI cho công việc, bạn muốn nó thành thật với bạn về những sai lầm trong công việc của bạn. Các công cụ AI giống như liệu pháp cần có khả năng phản bác các kiểu suy nghĩ không lành mạnh hoặc tiềm ẩn nguy hiểm. Các mô hình AI hiện tại của chúng ta đang gặp khó khăn với điều đó.
Disagree Bot là một ví dụ tuyệt vời về cách bạn có thể thiết kế một công cụ AI hữu ích và hấp dẫn, đồng thời kiềm chế xu hướng dễ chiều hoặc nịnh bợ của AI. Phải có sự cân bằng; AI chỉ phản bác bạn vì muốn trái ngược sẽ không hữu ích về lâu dài. Nhưng việc xây dựng các công cụ AI có khả năng phản bác lại bạn tốt hơn cuối cùng sẽ làm cho những sản phẩm đó hữu ích hơn cho chúng ta, ngay cả khi chúng ta phải chấp nhận việc chúng hơi khó tính một chút.