Thuật toán lấy cảm hứng từ não bộ có thể cắt giảm đáng kể mức tiêu thụ năng lượng của AI

Tin tức AI - 17/12/2025 05:44:00

Một nghiên cứu mới đi sâu vào việc thiết kế lại lớn kiến trúc AI.

Một vấn đề lớn mà trí tuệ nhân tạo đang đối mặt là sự tương tác giữa bộ nhớ và khả năng xử lý của máy tính. Khi một thuật toán hoạt động, dữ liệu di chuyển nhanh chóng giữa hai thành phần này. Tuy nhiên, các mô hình AI dựa vào một lượng lớn dữ liệu, điều này tạo ra một nút thắt cổ chai. 

Một nghiên cứu mới, được công bố vào thứ Hai trên tạp chí Frontiers in Science bởi Đại học Purdue và Viện Công nghệ Georgia, đề xuất một cách tiếp cận mới để xây dựng kiến trúc máy tính cho các mô hình AI sử dụng thuật toán lấy cảm hứng từ não bộ. Các nhà nghiên cứu cho biết việc tạo ra các thuật toán theo cách này có thể giảm chi phí năng lượng liên quan đến các mô hình AI. 

"Các mô hình xử lý ngôn ngữ đã tăng kích thước lên 5.000 lần trong bốn năm qua," Kaushik Roy, giáo sư kỹ thuật máy tính tại Đại học Purdue và là tác giả chính của nghiên cứu, cho biết trong một tuyên bố. "Sự mở rộng nhanh chóng đáng báo động này khiến việc AI hoạt động hiệu quả nhất có thể trở nên cực kỳ quan trọng. Điều đó có nghĩa là phải tư duy lại cơ bản cách máy tính được thiết kế."

Hầu hết các máy tính ngày nay đều được mô phỏng theo một ý tưởng từ năm 1945 gọi là kiến trúc von Neumann, vốn tách biệt quá trình xử lý và bộ nhớ. Đây là nơi xảy ra sự chậm lại. Khi ngày càng nhiều người trên thế giới sử dụng các mô hình AI tiêu tốn nhiều dữ liệu, sự khác biệt giữa khả năng xử lý và dung lượng bộ nhớ của máy tính có thể trở thành một vấn đề đáng kể hơn.

Các nhà nghiên cứu tại IBM đã chỉ ra vấn đề này trong một bài đăng vào đầu năm nay. Vấn đề mà các kỹ sư máy tính đang gặp phải được gọi là 'memory wall'.

Phá vỡ memory wall

Memory wall đề cập đến sự chênh lệch giữa bộ nhớ và khả năng xử lý. Về cơ bản, bộ nhớ máy tính đang gặp khó khăn trong việc theo kịp tốc độ xử lý. Đây không phải là một vấn đề mới. Một cặp nhà nghiên cứu từ Đại học Virginia đã đặt ra thuật ngữ này vào những năm 1990. 

Nhưng giờ đây khi AI đã trở nên phổ biến, vấn đề memory wall đang tiêu tốn thời gian và năng lượng trong các máy tính nền tảng giúp các mô hình AI hoạt động. Các nhà nghiên cứu của bài báo lập luận rằng chúng ta có thể thử một kiến trúc máy tính mới tích hợp bộ nhớ và xử lý. 

Lấy cảm hứng từ cách bộ não của chúng ta hoạt động, các thuật toán AI được đề cập trong bài báo được gọi là spiking neural networks. Một chỉ trích phổ biến đối với các thuật toán này trong quá khứ là chúng có thể chậm và không chính xác. Tuy nhiên, một số nhà khoa học máy tính lập luận rằng những thuật toán này đã cho thấy sự cải thiện đáng kể trong vài năm qua. 

Các nhà nghiên cứu đề xuất rằng các mô hình AI nên sử dụng một khái niệm liên quan đến SNN, được gọi là compute-in-memory. Khái niệm này vẫn còn tương đối mới trong lĩnh vực AI. 

"CIM mang đến một giải pháp đầy hứa hẹn cho vấn đề memory wall bằng cách tích hợp khả năng tính toán trực tiếp vào hệ thống bộ nhớ," các tác giả viết trong tóm tắt của bài báo. 

Thiết bị y tế, giao thông vận tải và máy bay không người lái là một vài lĩnh vực mà các nhà nghiên cứu tin rằng có thể có những cải tiến nếu quá trình xử lý và bộ nhớ của máy tính được tích hợp vào một hệ thống duy nhất. 

"AI là một trong những công nghệ mang tính chuyển đổi mạnh mẽ nhất của thế kỷ 21. Tuy nhiên, để đưa nó ra khỏi các trung tâm dữ liệu và vào thế giới thực, chúng ta cần giảm đáng kể mức tiêu thụ năng lượng của nó," Tanvi Sharma, đồng tác giả và nhà nghiên cứu tại Đại học Purdue, cho biết trong một tuyên bố. 

"Với việc truyền dữ liệu ít hơn và xử lý hiệu quả hơn, AI có thể được tích hợp vào các thiết bị nhỏ, giá cả phải chăng với thời lượng pin kéo dài hơn," Sharma nói. 

Nguồn: cnet.com

Tin tức AI

Xem tất cả