OpenAI phân bổ khoản đầu tư AI đám mây 600 tỷ USD cho AWS, Oracle, Microsoft
Tin tức AI - 03/11/2025 22:37:32
OpenAI đang mạnh tay chi tiêu để đảm bảo chuỗi cung ứng sức mạnh tính toán AI của mình, ký kết một thỏa thuận mới với AWS như một phần của chiến lược đa đám mây.
OpenAI đang mạnh tay chi tiêu để đảm bảo chuỗi cung ứng sức mạnh tính toán AI của mình, ký kết một thỏa thuận mới với AWS như một phần của chiến lược đa đám mây.
Công ty gần đây đã chấm dứt quan hệ đối tác điện toán đám mây độc quyền với Microsoft. Kể từ đó, họ đã phân bổ 250 tỷ USD theo báo cáo trở lại cho Microsoft, 300 tỷ USD cho Oracle, và hiện tại là 38 tỷ USD cho Amazon Web Services (AWS) trong một thỏa thuận đa năm mới. Thỏa thuận 38 tỷ USD với AWS này, tuy là nhỏ nhất trong ba thỏa thuận, là một phần trong kế hoạch đa dạng hóa của OpenAI.
Đối với các nhà lãnh đạo ngành, hành động của OpenAI cho thấy rằng việc tiếp cận các GPU hiệu suất cao không còn là một mặt hàng theo yêu cầu. Hiện tại, đây là một tài nguyên khan hiếm đòi hỏi cam kết vốn lớn dài hạn.
Thỏa thuận với AWS cung cấp cho OpenAI quyền truy cập vào hàng trăm nghìn GPU NVIDIA, bao gồm GB200s và GB300s mới, cùng khả năng khai thác hàng chục triệu CPU.
Cơ sở hạ tầng mạnh mẽ này không chỉ dùng để đào tạo các mô hình tương lai; nó cần thiết để chạy các khối lượng công việc suy luận khổng lồ của ChatGPT hiện nay. Như Sam Altman, đồng sáng lập và CEO của OpenAI đã tuyên bố, “mở rộng quy mô AI tiên tiến đòi hỏi sức mạnh tính toán lớn, đáng tin cậy”.
Chiến dịch chi tiêu này đang buộc các nhà cung cấp siêu quy mô phải có phản ứng cạnh tranh. Trong khi AWS vẫn là nhà cung cấp đám mây lớn nhất ngành, Microsoft và Google gần đây đã công bố tốc độ tăng trưởng doanh thu đám mây nhanh hơn, thường là bằng cách thu hút khách hàng AI mới. Thỏa thuận với AWS này là một nỗ lực rõ ràng nhằm đảm bảo khối lượng công việc AI cốt lõi và chứng minh khả năng AI quy mô lớn của họ, mà AWS tuyên bố bao gồm việc chạy các cụm hơn 500.000 chip.
AWS không chỉ cung cấp các máy chủ tiêu chuẩn. Họ đang xây dựng một kiến trúc tinh vi, chuyên dụng cho OpenAI, sử dụng EC2 UltraServers để liên kết các GPU cho mạng có độ trễ thấp mà việc đào tạo quy mô lớn yêu cầu.
“Sự đa dạng và khả năng sẵn sàng tức thì của sức mạnh tính toán tối ưu hóa chứng tỏ lý do tại sao AWS có vị thế độc đáo để hỗ trợ khối lượng công việc AI khổng lồ của OpenAI,” Matt Garman, CEO của AWS, cho biết.
Nhưng “tức thì” chỉ mang tính tương đối. Toàn bộ công suất từ thỏa thuận AI đám mây mới nhất của OpenAI sẽ không được triển khai đầy đủ cho đến cuối năm 2026, với các tùy chọn mở rộng thêm vào năm 2027. Lộ trình này mang lại một liều thuốc thực tế cho bất kỳ giám đốc điều hành nào đang lên kế hoạch triển khai AI: chuỗi cung ứng phần cứng phức tạp và hoạt động theo lịch trình nhiều năm.
Vậy thì, các nhà lãnh đạo doanh nghiệp nên rút ra điều gì từ đây?
Thứ nhất, cuộc tranh luận “tự xây dựng hay mua” đối với cơ sở hạ tầng AI gần như đã kết thúc. OpenAI đang chi hàng trăm tỷ USD để xây dựng trên nền tảng phần cứng thuê. Rất ít, nếu có, các công ty khác có thể hoặc nên làm theo. Điều này đẩy phần còn lại của thị trường chắc chắn hướng tới các nền tảng được quản lý như Amazon Bedrock, Google Vertex AI, hoặc IBM watsonx, nơi các nhà cung cấp siêu quy mô sẽ hấp thụ rủi ro cơ sở hạ tầng này.
Thứ hai, những ngày chỉ sử dụng một nhà cung cấp đám mây cho các khối lượng công việc AI có thể đã không còn nhiều. Việc OpenAI chuyển sang mô hình đa nhà cung cấp là một ví dụ điển hình về việc giảm thiểu rủi ro tập trung. Đối với một CIO, việc phụ thuộc vào một nhà cung cấp duy nhất cho sức mạnh tính toán chạy một quy trình kinh doanh cốt lõi đang trở thành một canh bạc.
Cuối cùng, ngân sách AI đã vượt ra khỏi phạm vi CNTT của bộ phận và đi vào thế giới hoạch định vốn doanh nghiệp. Đây không còn là các chi phí vận hành biến đổi. Đảm bảo sức mạnh tính toán AI giờ đây là một cam kết tài chính dài hạn, giống như xây dựng một nhà máy hoặc trung tâm dữ liệu mới.