Từ phút sang mili giây: Cách CrateDB đang giải quyết hạ tầng dữ liệu AI
Tin tức AI - 04/09/2025 15:57:14
Trước khi phát biểu tại TechEx Europe vào tháng 9, CrateDB đã chia sẻ cách họ đang giải quyết hạ tầng dữ liệu AI.
Lời hứa của AI vẫn còn rất lớn – nhưng có một điều có thể đang kìm hãm nó. “Hạ tầng cung cấp năng lượng cho AI ngày nay sẽ không đáp ứng được nhu cầu của ngày mai,” một bài báo gần đây của CIO.com dẫn lời. “Các CIO phải suy nghĩ lại cách mở rộng quy mô thông minh hơn – không chỉ lớn hơn – hoặc có nguy cơ bị bỏ lại phía sau.”
CrateDB đồng ý – và công ty cơ sở dữ liệu này đang đặt cược vào việc giải quyết vấn đề bằng cách trở thành ‘lớp dữ liệu thống nhất cho phân tích, tìm kiếm và AI’.
“Thách thức là hầu hết các hệ thống IT đang dựa vào, hoặc đã được xây dựng, xung quanh các quy trình hàng loạt (batch pipeline) hoặc quy trình không đồng bộ (asynchronous pipeline), và giờ đây bạn cần giảm thời gian giữa việc sản xuất và tiêu thụ dữ liệu,” Stephane Castellani, SVP marketing, giải thích. “CrateDB rất phù hợp vì nó thực sự có thể cung cấp cho bạn những hiểu biết sâu sắc về dữ liệu chính xác với khối lượng lớn và độ phức tạp của định dạng chỉ trong vài mili giây.”
Một bài đăng trên blog lưu ý quy trình bốn bước để CrateDB hoạt động như ‘mô liên kết giữa dữ liệu vận hành và hệ thống AI’; từ việc thu nạp, đến tổng hợp và phân tích theo thời gian thực, đến việc cung cấp dữ liệu cho các quy trình AI, đến việc kích hoạt các vòng lặp phản hồi giữa các mô hình và dữ liệu. Tốc độ và sự đa dạng của dữ liệu là chìa khóa; Castellani lưu ý rằng thời gian truy vấn đã giảm từ vài phút xuống còn mili giây. Trong lĩnh vực sản xuất, dữ liệu đo xa (telemetry) có thể được thu thập từ các máy móc theo thời gian thực, cho phép tăng cường khả năng học hỏi cho các mô hình bảo trì dự đoán.
Có một lợi ích khác, như Castellani giải thích. “Một số người cũng sử dụng CrateDB trong nhà máy để hỗ trợ kiến thức,” ông nói. “Nếu có điều gì đó sai, bạn có một thông báo lỗi cụ thể xuất hiện trên máy của mình và nói ‘Tôi không phải là chuyên gia về cỗ máy này, điều đó có nghĩa là gì và làm thế nào tôi có thể khắc phục nó?’, [bạn] có thể hỏi một trợ lý kiến thức, cũng đang dựa vào CrateDB như một cơ sở dữ liệu vector, để truy cập thông tin và lấy hướng dẫn sử dụng cùng các chỉ dẫn đúng đắn để phản ứng theo thời gian thực.”
Tuy nhiên, AI không đứng yên lâu; “chúng ta không biết [nó] sẽ trông như thế nào trong vài tháng, hoặc thậm chí vài tuần nữa”, Castellani lưu ý. Các tổ chức đang tìm cách chuyển sang các quy trình làm việc AI có tác nhân (agentic AI workflows) hoàn toàn với quyền tự chủ cao hơn, tuy nhiên theo nghiên cứu gần đây của PYMENTS Intelligence, ngành sản xuất – như một phần của ngành hàng hóa và dịch vụ rộng lớn hơn – đang tụt hậu. CrateDB đã hợp tác với Tech Mahindra về mặt này để giúp cung cấp các giải pháp AI có tác nhân cho ngành ô tô, sản xuất và các nhà máy thông minh.
Castellani bày tỏ sự phấn khích về Giao thức ngữ cảnh mô hình (Model Context Protocol - MCP), chuẩn hóa cách các ứng dụng cung cấp ngữ cảnh cho các mô hình ngôn ngữ lớn (LLMs). Ông ví điều này với xu hướng xung quanh các API doanh nghiệp 12 năm trước. CrateDB’s MCP Server, vốn vẫn đang ở giai đoạn thử nghiệm, đóng vai trò là cầu nối giữa các công cụ AI và cơ sở dữ liệu phân tích. “Khi chúng ta nói về MCP, nó khá giống với cách tiếp cận [của API] nhưng dành cho LLM,” ông giải thích.
Tech Mahindra chỉ là một trong những đối tác chủ chốt mà CrateDB hướng tới trong tương lai. “Chúng tôi tiếp tục tập trung vào những điều cơ bản của mình,” Castellani nói thêm. “Hiệu suất, khả năng mở rộng… đầu tư vào khả năng thu nạp dữ liệu từ ngày càng nhiều nguồn dữ liệu, và luôn giảm thiểu độ trễ, cả về phía thu nạp và truy vấn.”
Stephane Castellani sẽ phát biểu tại AI & Big Data Expo Europe về chủ đề Mang AI đến dữ liệu thời gian thực – Text2SQL, RAG và TAG với CrateDB, và IoT Tech Expo Europe về chủ đề Vận hành IoT thông minh hơn: Phân tích trang trại gió theo thời gian thực và chẩn đoán dựa trên AI. Bạn có thể xem toàn bộ cuộc phỏng vấn với Stephane dưới đây: