Tự chủ mà thiếu trách nhiệm giải trình: Rủi ro thực sự của AI

Tin tức AI - 09/01/2026 21:44:37

Nếu bạn từng đi một chiếc Uber tự lái qua trung tâm thành phố LA, bạn có thể nhận ra cảm giác bất an kỳ lạ nảy sinh khi không có tài xế và không có cuộc trò chuyện nào, chỉ có một chiếc xe im lìm đang đưa ra những giả định về thế giới xung quanh nó. Hành trình vẫn ổn cho đến khi chiếc xe đọc nhầm một cái bóng hoặc giảm tốc đột ngột vì […]

Nếu bạn từng đi một chiếc Uber tự lái qua trung tâm thành phố LA, bạn có thể nhận ra cảm giác bất an kỳ lạ nảy sinh khi không có tài xế và không có cuộc trò chuyện nào, chỉ có một chiếc xe im lìm đang đưa ra những giả định về thế giới xung quanh nó. Hành trình vẫn ổn cho đến khi chiếc xe đọc nhầm một cái bóng hoặc giảm tốc đột ngột vì một thứ gì đó vô hại. Trong khoảnh khắc đó, bạn thấy vấn đề thực sự của tính tự chủ. Nó không hoảng loạn khi cần thiết, và khoảng cách giữa sự tự tin và khả năng phán đoán chính là nơi niềm tin được tạo dựng hoặc mất đi. Phần lớn AI dành cho doanh nghiệp hiện nay cũng mang lại cảm giác tương tự. Nó thành thạo nhưng không tự tin, và hiệu quả nhưng không thấu cảm, đó là lý do tại sao yếu tố quyết định trong mọi hoạt động triển khai thành công không còn là sức mạnh tính toán mà là niềm tin.

Báo cáo MLQ State of AI in Business 2025 [PDF] đưa ra một con số sắc bén về vấn đề này. 95% các dự án AI thử nghiệm ban đầu không tạo ra ROI có thể đo lường được, không phải vì công nghệ yếu mà vì nó không phù hợp với các vấn đề mà tổ chức đang cố gắng giải quyết. Kịch bản này lặp lại trong nhiều ngành công nghiệp. Các nhà lãnh đạo cảm thấy bất an khi họ không thể biết liệu kết quả đầu ra có đúng hay không, các đội ngũ không chắc liệu các bảng điều khiển có đáng tin cậy hay không, và khách hàng nhanh chóng mất kiên nhẫn khi một tương tác mang lại cảm giác bị tự động hóa thay vì được hỗ trợ. Bất kỳ ai từng bị khóa tài khoản ngân hàng trong khi hệ thống khôi phục tự động khăng khăng rằng câu trả lời của họ là sai đều biết niềm tin bốc hơi nhanh chóng như thế nào.

Klarna vẫn là ví dụ được nhắc đến nhiều nhất về việc tự động hóa quy mô lớn trong thực tế. Công ty hiện đã giảm một nửa lực lượng lao động kể từ năm 2022 và cho biết các hệ thống AI nội bộ đang thực hiện công việc của 853 vai trò toàn thời gian, tăng từ mức 700 vào đầu năm nay. Doanh thu đã tăng 108%, trong khi thù lao trung bình của nhân viên tăng 60%, một phần nhờ vào các khoản lợi nhuận vận hành đó. Tuy nhiên, bức tranh thực tế phức tạp hơn. Klarna vẫn báo lỗ 95 triệu đô la hàng quý, và CEO của công ty đã cảnh báo rằng có khả năng sẽ tiếp tục cắt giảm nhân sự. Điều đó cho thấy chỉ riêng tự động hóa không tạo ra sự ổn định. Nếu không có trách nhiệm giải trình và cấu trúc, trải nghiệm sẽ sụp đổ từ lâu trước khi AI gặp sự cố. Như Jason Roos, CEO của nhà cung cấp CCaaS Cirrus, đã nói: “Bất kỳ sự chuyển đổi nào làm lung lay niềm tin, dù là bên trong hay bên ngoài doanh nghiệp, đều mang lại cái giá mà bạn không thể phớt lờ. Nó có thể khiến bạn trở nên tồi tệ hơn.”

Chúng ta đã thấy điều gì xảy ra khi tính tự chủ chạy trước trách nhiệm giải trình. Bộ Lao động và Hưu bổng của Vương quốc Anh đã sử dụng một thuật toán gắn cờ sai khoảng 200.000 đơn xin trợ cấp nhà ở là có khả năng gian lận, mặc dù đa số là hợp pháp. Vấn đề không phải là công nghệ. Đó là sự thiếu hụt quyền sở hữu rõ ràng đối với các quyết định của nó. Khi một hệ thống tự động tạm ngưng sai tài khoản, từ chối sai yêu cầu hoặc tạo ra nỗi sợ hãi không cần thiết, vấn đề không bao giờ chỉ là “tại sao mô hình lại chạy sai?” Mà là “ai chịu trách nhiệm về kết quả?” Nếu không có câu trả lời đó, niềm tin sẽ trở nên mong manh.

“Bước còn thiếu luôn là sự sẵn sàng,” Roos nói. “Nếu quy trình, dữ liệu và các rào chắn không được thiết lập, tính tự chủ không đẩy nhanh hiệu suất mà nó sẽ khuếch đại những điểm yếu. Trách nhiệm giải trình phải được ưu tiên hàng đầu. Hãy bắt đầu với kết quả, tìm xem nỗ lực đang bị lãng phí ở đâu, kiểm tra sự sẵn sàng và quản trị của bạn, và chỉ sau đó mới tự động hóa. Bỏ qua những bước đó và trách nhiệm giải trình sẽ biến mất nhanh như khi các lợi ích về hiệu quả xuất hiện.”

Một phần của vấn đề là nỗi ám ảnh về quy mô mà thiếu đi nền tảng giúp quy mô đó bền vững. Nhiều tổ chức thúc đẩy các tác nhân tự trị có thể hành động quyết đoán, nhưng rất ít người dừng lại để cân nhắc điều gì sẽ xảy ra khi những hành động đó chệch khỏi ranh giới mong đợi. Báo cáo Edelman Trust Barometer [PDF] cho thấy niềm tin của công chúng vào AI đã giảm đều đặn trong năm năm qua, và một nghiên cứu chung của KPMG và Đại học Melbourne cho thấy người lao động thích sự tham gia của con người nhiều hơn trong gần một nửa số nhiệm vụ được xem xét. Những phát hiện này củng cố một quan điểm đơn giản. Niềm tin hiếm khi đến từ việc thúc ép các mô hình hoạt động mạnh hơn. Nó đến từ việc mọi người dành thời gian để hiểu cách các quyết định được đưa ra, và từ cơ chế quản trị hoạt động ít giống như bàn đạp phanh mà giống như vô lăng điều hướng hơn.

Những động lực tương tự cũng xuất hiện ở phía khách hàng. Nghiên cứu về niềm tin của PwC tiết lộ một khoảng cách lớn giữa nhận thức và thực tế. Hầu hết các giám đốc điều hành tin rằng khách hàng tin tưởng tổ chức của họ, trong khi chỉ một số ít khách hàng đồng ý. Các cuộc khảo sát khác cho thấy tính minh bạch giúp thu hẹp khoảng cách này, với đại đa số người tiêu dùng mong muốn được công khai rõ ràng khi AI được sử dụng trong các trải nghiệm dịch vụ. Nếu không có sự rõ ràng đó, mọi người sẽ không cảm thấy an tâm. Họ cảm thấy bị lừa dối, và mối quan hệ trở nên căng thẳng. Các công ty giao tiếp cởi mở về việc sử dụng AI không chỉ bảo vệ niềm tin mà còn bình thường hóa ý tưởng rằng công nghệ và sự hỗ trợ của con người có thể cùng tồn tại.

Một số sự nhầm lẫn bắt nguồn từ chính thuật ngữ “agentic AI”. Phần lớn thị trường coi nó là một thứ gì đó không thể đoán trước hoặc tự định hướng, trong khi thực tế nó là sự tự động hóa quy trình làm việc với khả năng suy luận và truy hồi thông tin. Đó là một cách có cấu trúc để các hệ thống đưa ra những quyết định khiêm tốn bên trong các tham số do con người thiết lập. Các đợt triển khai mở rộng quy mô an toàn đều tuân theo cùng một trình tự. Họ bắt đầu với kết quả muốn cải thiện, sau đó xem xét những nỗ lực không cần thiết nằm ở đâu trong quy trình làm việc, sau đó đánh giá xem hệ thống và đội ngũ của họ đã sẵn sàng cho tính tự chủ chưa, và chỉ sau đó mới chọn công nghệ. Đảo ngược trật tự đó không làm nhanh thêm điều gì. Nó chỉ tạo ra những sai lầm nhanh hơn. Như Roos nói, AI nên mở rộng khả năng phán đoán của con người chứ không phải thay thế nó.

Tất cả những điều này chỉ ra một sự thật rộng lớn hơn. Mọi làn sóng tự động hóa cuối cùng đều trở thành một câu hỏi mang tính xã hội thay vì chỉ thuần túy kỹ thuật. Amazon xây dựng sự thống trị của mình thông qua tính nhất quán trong vận hành, nhưng họ cũng xây dựng một mức độ tin cậy rằng bưu kiện sẽ đến nơi. Khi sự tin cậy đó giảm sút, khách hàng sẽ rời đi. AI cũng tuân theo mô hình tương tự. Bạn có thể triển khai các hệ thống tinh vi, tự sửa lỗi, nhưng nếu khách hàng cảm thấy bị lừa hoặc bị dẫn dắt sai lệch tại bất kỳ thời điểm nào, niềm tin sẽ tan vỡ. Trong nội bộ, những áp lực tương tự cũng được áp dụng. Nghiên cứu toàn cầu của KPMG [PDF] nhấn mạnh việc nhân viên nhanh chóng mất gắn kết khi họ không hiểu cách các quyết định được đưa ra hoặc ai là người chịu trách nhiệm về chúng. Nếu không có sự rõ ràng đó, việc áp dụng sẽ bị đình trệ.

Khi các hệ thống tác nhân đảm nhận nhiều vai trò giao tiếp hơn, chiều kích cảm xúc thậm chí còn trở nên quan trọng hơn. Những đánh giá ban đầu về các tương tác trò chuyện tự trị cho thấy giờ đây mọi người đánh giá trải nghiệm của họ không chỉ qua việc họ có được giúp đỡ hay không mà còn qua việc liệu tương tác đó có mang lại cảm giác được chú ý và tôn trọng hay không. Một khách hàng cảm thấy bị phớt lờ hiếm khi giữ sự bực bội cho riêng mình. Sắc thái cảm xúc của AI đang trở thành một yếu tố vận hành thực sự, và các hệ thống không thể đáp ứng kỳ vọng đó có nguy cơ trở thành gánh nặng.

Sự thật khó khăn là công nghệ sẽ tiếp tục tiến nhanh hơn sự thoải mái theo bản năng của con người đối với nó. Niềm tin sẽ luôn đi sau sự đổi mới. Đó không phải là một lập luận chống lại sự tiến bộ. Đó là một lập luận cho sự trưởng thành. Mọi nhà lãnh đạo AI nên tự hỏi liệu họ có tin tưởng hệ thống với dữ liệu của chính mình hay không, liệu họ có thể giải thích quyết định cuối cùng của nó bằng ngôn ngữ bình dân hay không, và ai sẽ can thiệp khi có sự cố xảy ra. Nếu những câu trả lời đó không rõ ràng, tổ chức đó không phải đang dẫn đầu sự chuyển đổi. Họ đang chuẩn bị cho một lời xin lỗi.

Roos nói một cách đơn giản, “AI tác nhân không phải là mối lo ngại. AI thiếu trách nhiệm giải trình mới là vấn đề.”

Khi niềm tin mất đi, sự chấp nhận cũng mất đi, và dự án từng trông có vẻ mang tính chuyển đổi sẽ trở thành một mục nhập khác trong tỷ lệ thất bại 95%. Tính tự chủ không phải là kẻ thù. Quên đi ai là người chịu trách nhiệm mới chính là kẻ thù. Những tổ chức giữ bàn tay con người trên vô lăng sẽ là những tổ chức vẫn nắm quyền kiểm soát khi sự cường điệu về xe tự lái cuối cùng cũng nhạt dần.

Tin tức AI

Xem tất cả