Liệu chúng ta có thực sự đang trên bờ vực dân chủ hóa quyền truy cập vào tự động hóa thông minh, hay chúng ta đang tạo ra một công thức dẫn đến thảm họa?
Trí tuệ nhân tạo phi tập trung đã được ca ngợi là một trong những đổi mới sâu sắc nhất trong thời đại của chúng ta, hứa hẹn trao quyền kiểm soát các công nghệ mang tính chuyển đổi nhất cho người dùng. Tuy nhiên, ngành này phải đối mặt với một số thách thức đáng gờm nếu tầm nhìn này muốn được thực hiện.
Những người ủng hộ phi tập trung hóa hình dung một thế giới nơi AI không bị kiểm soát bởi một vài tập đoàn công nghệ lớn, mà bởi một cộng đồng toàn cầu mời gọi mọi người tham gia và đóng góp ý kiến. Đây là một mục tiêu táo bạo, nhưng khi nó dần hiện rõ, một câu hỏi đặt ra – liệu chúng ta có thực sự đang trên bờ vực dân chủ hóa quyền truy cập vào tự động hóa thông minh, hay chúng ta đang tạo ra một công thức dẫn đến thảm họa?
Các mô hình AI nổi tiếng nhất trên thế giới đang bị kiểm soát bởi một vài công ty được chọn – OpenAI, Google, Microsoft, Anthropic, DeepSeek và những công ty khác – tạo ra một cảm giác quen thuộc rằng ngành công nghiệp AI, giống như internet ngày nay, sẽ bị thống trị bởi một số ít "quân vương" quyền lực.
Điều này đã thúc đẩy mong muốn về một bối cảnh AI công bằng và cởi mở hơn, đồng thời thu hút một số người ủng hộ mạnh mẽ. Người sáng lập Stability AI Emad Mostaque đã gây chú ý khi ông bất ngờ từ chức vào tháng 3 năm 2024, nói rằng ông muốn "theo đuổi AI phi tập trung" để đảm bảo rằng công nghệ này vẫn mở và dễ tiếp cận với mọi người.
Tầm nhìn của Mostaque nhận được sự đồng tình từ các nhà lập pháp. Tại Pháp, Trưởng Cơ quan Cạnh tranh Benoît Cœuré đã chỉ ra rằng AI là công nghệ đầu tiên đã "bị thống trị bởi các ông lớn ngay từ đầu", và coi AI phi tập trung là cơ hội duy nhất để thay đổi tình trạng này trước khi quá muộn.
Những người ủng hộ AI phi tập trung lập luận rằng nó sẽ dẫn đến một thế giới nơi các nhà phát triển cá nhân, sinh viên, startup và những người có sở thích có thể tập hợp kiến thức, tài nguyên tính toán và dữ liệu của họ để cho phép bất kỳ ai cũng có thể tham gia, tạo ra điều mà MIT nói sẽ là "đổi mới dân chủ hóa".
Họ cũng chỉ ra tính minh bạch là một lợi ích lớn khác, với các mô hình AI mở chạy trên blockchain, đảm bảo rằng bất kỳ thuật toán nào có thành kiến hoặc độc hại sẽ nhanh chóng được xác định và loại bỏ. Greyscale Research, trong một nghiên cứu, đã phát hiện ra rằng các mạng mở thực sự có khả năng loại bỏ sự thiên vị trong AI, trái ngược hoàn toàn với các mô hình tập trung, thiếu minh bạch được sử dụng ngày nay, thường được gọi là "hộp đen."
Các lợi ích khác của AI phi tập trung bao gồm khả năng chống kiểm duyệt và khả năng tiếp cận. Các công ty như Google và OpenAI thường tích hợp các bộ lọc nội dung, ngăn chặn các mô hình của họ thảo luận hoặc trả lời các câu hỏi về một số chủ đề nhất định và tính phí truy cập. Mặc dù các mô hình phi tập trung cũng có thể có bộ lọc nội dung, nhưng tính chất mở của chúng có nghĩa là những bộ lọc này có thể dễ dàng bị bỏ qua. Hơn nữa, không ai có thể tính phí truy cập vào một mô hình phi tập trung, thuộc sở hữu cộng đồng, có nghĩa là việc sử dụng không bị hạn chế chỉ dành cho những người có khả năng tài chính để trả phí truy cập.
Sự đồng thuận chung trong cộng đồng AI phi tập trung là thế giới sẽ tốt đẹp hơn nhiều nếu công nghệ này được sở hữu chung và mở cửa cho sự đóng góp từ mọi nơi trên thế giới.
Bất chấp tất cả những điểm tích cực này, ngành công nghiệp AI phi tập trung phải vượt qua một loạt các thách thức đáng gờm để hiện thực hóa tầm nhìn này. Bằng cách đưa AI ra khỏi các trung tâm dữ liệu tập trung, được kiểm soát chặt chẽ và thả nó vào một mạng lưới toàn cầu thuộc sở hữu của mọi người, nó mở ra vô số rủi ro.
Một trong những câu hỏi khó khăn nhất liên quan đến tính toàn vẹn và đồng bộ hóa dữ liệu. Các cơ chế như học liên kết (federated learning) có thể giải quyết thách thức sau, nhưng nó không cung cấp nhiều giải pháp cho rủi ro "đầu độc dữ liệu" (data poisoning), vốn có thể làm sai lệch kết quả của các mô hình phi tập trung. Chúng ta có thể, có lẽ, thêm một lớp blockchain để tăng tính minh bạch, nhưng điều này có thể làm tăng độ phức tạp, làm phức tạp hóa các tác vụ xử lý dữ liệu và làm chậm đổi mới.
Ngoài ra, có những lo ngại có căn cứ rằng, mặc dù mạng lưới phân tán có nghĩa là chi phí thấp hơn và khả năng giảm thiểu thiên vị, nhưng những lợi ích này phải đánh đổi bằng hiệu quả, điều này có thể cản trở khả năng của các mô hình AI phi tập trung.
Nhu cầu về tài nguyên tính toán khổng lồ cũng là một rào cản. Mặc dù các công ty Trung Quốc như DeepSeek rõ ràng đã đạt được thành công với nguồn lực hạn chế hơn, nhưng nhìn chung các mô hình AI phức tạp nhất yêu cầu quyền truy cập vào số lượng lớn GPU mạnh mẽ. Việc mua lại các tài nguyên này và phối hợp chúng vẫn là một thách thức lớn đối với các mạng lưới phi tập trung.
Tuy nhiên, có một số giải pháp đầy hứa hẹn cho vấn đề này. Chẳng hạn, 0G Labs gần đây đã công bố một bước đột phá đầy hứa hẹn dưới dạng khung DiLoCoX của họ, chia nhỏ các tác vụ huấn luyện mô hình thành các phần riêng lẻ, phân tán chúng trong nhiều nút để có thể thực hiện song song, trước khi đồng bộ hóa kết quả với mạng sau khi các công việc huấn luyện này hoàn thành. Khi làm như vậy, 0G tuyên bố có thể huấn luyện các mô hình phi tập trung mạnh mẽ hơn nhiều chỉ với các tài nguyên hạn chế, bất kể băng thông mạng có sẵn.
“Bằng cách cho phép huấn luyện các mô hình AI khổng lồ trên các mạng chậm hơn và rẻ hơn, cùng với phần cứng dễ tiếp cận hơn so với trung tâm dữ liệu tốc độ cao, ngay cả các doanh nghiệp nhỏ hơn và cá nhân cũng sẽ có thể huấn luyện các mô hình tiên tiến của riêng họ với tốc độ và độ chính xác,” nói Michael Heinrich, CEO của 0G Labs.
Tuy nhiên, các giải pháp cho các vấn đề liên quan đến bảo mật của AI phi tập trung lại ít rõ ràng hơn. Đó là một điều nghịch lý, bởi vì trong khi kiểm soát phi tập trung làm giảm đáng kể nguy cơ một điểm lỗi duy nhất, nó cũng làm tăng bề mặt tấn công lên một số lượng điểm cuối có khả năng vô hạn.
Cuối cùng, vẫn còn những câu hỏi xung quanh việc quản trị các mô hình AI phi tập trung. Chẳng hạn, ai là người đưa ra quyết định về những phần nào của mô hình nên được cải thiện, những biện pháp bảo vệ nào nên được tích hợp, v.v.? Và ai chịu trách nhiệm nếu có bất kỳ vấn đề nào phát sinh với một mô hình phi tập trung?
Việc thiếu trách nhiệm giải trình có thể dẫn đến một loại “khoảng trống đạo đức”, gây ra sự lạm dụng lớn các mô hình AI phi tập trung mạnh mẽ không kém các mô hình tập trung, với những hậu quả cực kỳ tiêu cực. Như một giải pháp, Vitalik Buterin của Ethereum đã đề xuất một loại mô hình lai, với “AI đóng vai trò động cơ và con người ngồi sau tay lái.” Vitalik tin rằng cách tiếp cận này sẽ kết hợp sức mạnh của AI với sự phán đoán của con người để tạo ra một hệ thống cân bằng và phi tập trung hơn.
Tương lai của AI phi tập trung vẫn còn bất định, và mặc dù sự phát triển của nó được thúc đẩy bởi những ý định lớn lao, con đường phía trước sẽ khó khăn để điều hướng. Đối với những người ủng hộ, đây là cách duy nhất để chúng ta dân chủ hóa công nghệ AI và mở khóa tiềm năng thực sự của nó. Ngược lại, các nhà phê bình chỉ ra những thách thức về đạo đức và tiềm năng lạm dụng đáng báo động, do thiếu trách nhiệm giải trình.
Tuy nhiên, rõ ràng là cộng đồng AI phi tập trung vẫn đang tiến về phía trước, bất chấp những rủi ro này. Đối với những người tin tưởng, giấc mơ về một ngành công nghiệp AI thực sự mở, minh bạch, do cộng đồng lãnh đạo và dễ tiếp cận với tất cả mọi người là quá mạnh mẽ để bỏ qua, và do đó không có gì có thể ngăn cản họ. Chúng ta chỉ có thể hy vọng rằng khi họ theo đuổi giấc mơ này, họ sẽ không bỏ qua những rủi ro và dành thời gian để xây dựng các biện pháp bảo vệ có thể ngăn chặn mọi thứ vượt khỏi tầm kiểm soát.