Tại sự kiện Huawei Connect 2025, gã khổng lồ công nghệ Trung Quốc đã chính thức trình làng Atlas 950 SuperCluster – giải pháp AI thế hệ mới ở cấp độ trung tâm dữ liệu. Hệ thống này được quảng bá có thể đạt hiệu năng 1 ZettaFLOPS FP4 cho AI inference và 524 ExaFLOPS FP8 cho AI training, nhờ vào sức mạnh từ hàng trăm nghìn bộ xử lý thần kinh Ascend 950DT (APU) . Nếu đúng như công bố, đây sẽ là một trong những siêu máy tính AI mạnh nhất hành tinh, đủ sức thách thức các hệ thống Rubin của Nvidia dự kiến ra mắt cuối năm 2026.
Hiệu năng khủng khiếp
Atlas 950 SuperCluster bao gồm 64 cụm Atlas 950 SuperPoD, tương tự cách Nvidia thiết kế các hệ thống GB300 NVL72 hay Vera Rubin NVL144. Tổng cộng, cụm này sử dụng 524.288 bộ tăng tốc Ascend 950DT, phân bố trong hơn 10.240 tủ rack được kết nối quang học.
Về mặt lý thuyết, SuperCluster có thể cung cấp 524 ExaFLOPS FP8 cho huấn luyện AI và 1 ZettaFLOPS FP4 cho suy luận AI. Tuy nhiên, đây vẫn là con số “đỉnh lý thuyết” và chưa chắc phản ánh hiệu năng thực tế, vốn còn phụ thuộc nhiều yếu tố như tối ưu phần mềm, hạ tầng mạng, và mức tiêu thụ điện.
Đáng chú ý, Huawei kết hợp cả hai giao thức RoCE (Remote Direct Memory Access over Converged Ethernet) và UBoE (UnifiedBus over Ethernet) do hãng tự phát triển. Theo Huawei, UBoE có thể giảm độ trễ khi rỗi, tăng độ tin cậy phần cứng và tiết kiệm hạ tầng mạng so với RoCE.
Với cấu hình khổng lồ này, Atlas 950 SuperCluster được thiết kế để xử lý các mô hình AI “siêu to khổng lồ” với hàng trăm tỷ đến hàng chục nghìn tỷ tham số – tức thế hệ kế tiếp của các LLM (large language model) và mô hình sparse đang được kỳ vọng.
Cái giá của “sức mạnh brute force”
Huawei thừa nhận rằng hãng không thể làm chip đơn lẻ mạnh hơn GPU của Nvidia. Thay vào đó, chiến lược là dùng số lượng khổng lồ accelerator để “cân bằng sức mạnh”. Một cụm Atlas 950 SuperPoD chứa 8.192 chip Ascend 950DT, gấp 20 lần so với thế hệ Atlas 900 A3 trước đó.
So sánh với đối thủ, Huawei tuyên bố hiệu năng Atlas 950 SuperCluster vượt trội so với Nvidia Vera Rubin NVL144 (1.2 ExaFLOPS FP8, 3.6 ExaFLOPS FP4). Nhưng vấn đề là kích thước vật lý: hệ thống của Huawei chiếm tới 64.000m² (cỡ 150 sân bóng rổ hoặc 9 sân bóng đá), trong khi Rubin NVL144 của Nvidia chỉ cần vài mét vuông. Và đó mới chỉ là phần “cốt lõi”, chưa tính không gian cho hệ thống điện, làm mát, và hạ tầng phụ trợ.
Không chỉ dừng lại ở đó, Huawei còn tiết lộ kế hoạch ra mắt Atlas 960 SuperCluster vào quý IV/2027. Hệ thống này sẽ vượt mốc 1 triệu Ascend 960 NPUs, đạt 2 ZettaFLOPS FP8 và 4 ZettaFLOPS FP4, tiếp tục duy trì song song cả UBoE và RoCE.