GPU H100 của Nvidia, công ty dẫn đầu về chip AI, luôn trong tình trạng khan hiếm hàng và đạt doanh số hàng triệu chiếc. Tuy nhiên, theo ước tính mức tiêu thụ điện năng của chip AI H100 tương đương với một thành phố lớn tại Mỹ hay một nước nhỏ ở châu Âu.
Paul Churnock, kỹ sư điện phụ trách chiến lược và quản trị kỹ thuật trung tâm dữ liệu tại Microsoft chia sẻ trên trang công nghệ Tom's Hardware rằng mỗi GPU H100 có công suất 700 W.
Churnock cho biết, với mức sử dụng hàng năm 61%, H100 tương đương mức tiêu thụ điện trung bình của một hộ gia đình ở Mỹ (2,51 người/hộ gia đình). Theo ước tính năm 2024 doanh số H100 đạt từ 1,5 đến 2 triệu GPU. So với mức tiêu thụ điện của dân cư tính theo thành phố, mức tiêu thụ điện năng của chip H100 đứng thứ năm, sau Houston, Texas, trước Phoenix, Arizona.
Mỗi năm một chip H100 sẽ ngốn khoảng 3.740 kWh. Dự kiến Nvidia bán 3,5 triệu GPU này trong hai năm 2023 và 2024, tức tổng mức tiêu thụ điện là 13.091 GWh, tương đương với mức tiêu thụ điện năng trung bình hàng năm tại một số nước như Georgia, Lithuania, Guatemala, khoảng 13.092 GWh.
Trước đó, vào tháng 10, theo thống kê của công ty Schneider Electric, tổng tiêu thụ điện năng của các trung tâm dữ liệu AI tạo sinh đã ngang bằng Cyprus.
Trong tương lai, Nvidia sẽ cho ra mắt nhiều dòng GPU mới như B100 Blackwell có thể còn cần nhiều điện hơn so với H100. Tuy nhiên, giới chuyên gia kỳ vọng các GPU AI thế hệ mới sẽ có hiệu suất làm việc hiệu quả hơn cho mỗi đơn vị năng lượng sử dụng.