Mỗi câu trả lời của ChatGPT trung bình tốn khoảng 2.5 Wh điện năng

Theo trang New Yorker, để đáp ứng cho cỡ 200 triệu yêu cầu từ người dùng, mỗi ngày chatbot ChatGPT của OpenAI đang xài hơn nửa triệu kWh điện, gấp 17.241 lần so với 1 gia đình trung bình tại Mỹ (mỗi gia đình khoảng 29 kWh/ngày).

Trí tuệ nhân tạo

Đây là điều đáng lo ngại và cần phải có biện pháp chuẩn bị cho tương lai, khi mà Generative AI - Trí tuệ nhân tạo tạo sinh, ngày càng phổ biến cũng như được ứng dụng nhiều hơn.

Một nghiên cứu của Alex de Vries - nhà khoa học dữ liệu của Ngân hàng Quốc gia Hà Lan (Dutch National Bank) cho thấy, các thiết bị AI mới sẽ tiêu thụ lượng điện năng ngang bằng với Hà Lan hoặc các quốc gia như Thụy Điển, Argentina vào năm 2027.

Giả sử Google cũng tích hợp Generative AI vào mọi lệnh tìm kiếm, thì lượng lượng điện tiêu thụ sẽ đạt khoảng 29 tỷ kWh mỗi năm, nhiều hơn tổng tiêu thụ của cả quốc gia như Kenya, Guatemala và Croatia trong cùng thời gian.

Hiện nay, rất khó để ước tính lượng điện mà ngành công nghiệp AI tiêu thụ do các mô hình AI cỡ lớn đang vận hành cũng như các Big Tech đều không công bố chính xác việc sử dụng năng lượng.

Theo Alex de Vries, toàn bộ lĩnh vực AI sẽ tiêu thụ từ 85 tới 134 TWh (1 terawatt = 1 tỷ kilowatt) mỗi năm vào năm 2027, chiếm khoảng nửa lượng điện tiêu thụ toàn cầu.

Dựa theo báo cáo từ Giải pháp Năng lượng Tiêu dùng (Consumer Energy Solutions), các tập đoàn công nghệ lớn trên thế giới chính là những doanh nghiệp sử dụng nhiều điện nhất trên thế giới. Cụ thể, Samsung sử dụng gần 23 TWh, Google hơn 12 TWh và Microsoft thì khoảng hơn 10 TWh để vận hành các trung tâm dữ liệu, mạng và thiết bị người dùng.

Trong tương lai, ngành công nghiệp AI sẽ ảnh hưởng lớn đến an ninh năng lượng cũng như tác động xấu gián tiếp tới môi trường nếu không có kế hoạch hay giải pháp cụ thể.

Thứ Ba, 12/03/2024 15:24
4,54 👨 224
0 Bình luận
Sắp xếp theo