Nvidia đang phát triển một dòng GPU AI với bộ nhớ HBM3E 144GB

Theo tiết lộ từ TrendForce, Nvidia đang nghiên cứu phát triển thế hệ GPU B100 và B200 tiếp theo dựa trên kiến ​​trúc Blackwell. Các GPU mới dự kiến ra mắt thị trường vào nửa cuối năm nay, và sẽ được định hướng đến phân khúc khách hàng đám mây CSP, hay nói cách khác là những tổ chức, doanh nghiệp sử dụng Nhà cung cấp dịch vụ đám mây (CSP) cho nhu cầu điện toán đám mây của họ. Nvidia cũng sẽ bổ sung phiên bản tinh gọn của B200A cho khách hàng doanh nghiệp OEM có nhu cầu về AI.

Có thông tin cho biết khả năng đóng gói CoWoS-L của TSMC (được sử dụng trên dòng B200) vẫn còn hạn chế. Do đó, nhiều khả năng dòng B200A sẽ chuyển sang công nghệ đóng gói CoWoS-S tương đối đơn giản. Điều này là hợp lý bởi Nvidia đang có kế hoạch tập trung vào dòng B200A để đáp ứng các yêu cầu của Nhà cung cấp dịch vụ đám mây.

Thông số kỹ thuật B200A

Do mới ở giai đoạn phát triển nội bộ, thông số kỹ thuật của B200A vẫn chưa được làm rõ hoàn toàn. Hiện tại, mới chỉ có thể xác nhận rằng dung lượng bộ nhớ HBM3E sẽ giảm từ 192GB xuống còn 144GB. Cũng có thông tin cho biết số lớp chip nhớ giảm một nửa từ 8 xuống 4. Tuy nhiên, dung lượng của một chip đơn tăng từ 24GB lên 36GB.

Đáng chú ý, mức tiêu thụ điện năng của GPU B200A được cho là sẽ thấp hơn B200 và không cần làm mát bằng chất lỏng. Hệ thống tản nhiệt không khí của GPU mới cũng sẽ giúp chúng dễ thiết lập hơn. B200A dự kiến ​​sẽ được cung cấp cho các nhà sản xuất OEM vào khoảng quý 2 năm sau.

Khảo sát chuỗi cung ứng cho thấy các lô hàng GPU cao cấp chính của NVIDIA vào năm 2024 sẽ dựa trên nền tảng Hopper, với H100 và H200 cho thị trường Bắc Mỹ và H20 cho thị trường Trung Quốc. Vì B200A sẽ lên kệ vào khoảng quý 2 năm 2025, nên dự kiến ​​sẽ không ảnh hưởng đến H200 (sẽ ra mắt trong hoặc sau quý 3).

Thứ Bảy, 10/08/2024 10:45
31 👨 85
0 Bình luận
Sắp xếp theo
    ❖ Chuyện công nghệ