Đầu tháng này, Google đã công bố kế hoạch ra mắt Bard, một chatbot AI được thiết kế để giúp người dùng tìm kiếm thông tin và tương tác với con người bằng mô hình ngôn ngữ tự nhiên. Trước đó ít hôm, Microsoft cũng đã công bố trải nghiệm tìm kiếm Bing mới với chatbot trí tuệ nhân tạo tích hợp được đánh giá là cho hiệu quả tối ưu hơn hẳn về mọi mặt so với công cụ tìm kiếm truyền thống.
Tuy nhiên, một khía cạnh chung của tất cả công nghệ chatbot này mà các công ty chủ quản không muốn nói đến đó là chi phí vận hành. Trong một cuộc phỏng vấn mới đây với Reuters, chủ tịch tập đoàn Alphabet John Hennessy đã tiết lộ sự thật có thể khiến nhiều người ngạc nhiên, đó là tổng chi phí để thực hiện một truy vấn tìm kiếm với chatbot dựa trên mô hình ngôn ngữ lớn có thể tốn gấp 10 lần so với truy vấn tìm kiếm thông thường hiện tại.
Trở lại thời điểm tháng 12 năm 2022, ngay sau khi ra mắt ChatGPT, Giám đốc điều hành của OpenAI, Sam Altman, đã tuyên bố trên Twitter rằng chi phí hoạt động của chatbot AI là rất cao. Đây cũng là một phần lý do tại sao OpenAI sau đó đã quyết định ra mắt gói thuê bao trả phí ChatGPT Plus vào đầu tháng 2, mang đến cho người dùng nhiều tính năng và hiệu suất nhanh hơn với mức giá 20 USD một tháng.
Theo ước tính của ngân hàng đầu tư Morgan Stanley, Google sẽ tiêu tốn 1/5 xu Mỹ chi phí vận hành cho mỗi lần ai đó thực hiện tìm kiếm trên dịch vụ của mình, với tổng cộng 3,3 ngàn tỉ truy vấn tìm kiếm vào năm 2022. Tuy nhiên, nếu một chatbot AI như Bard được đưa vào sử dụng, chi phí của một truy vấn tìm kiếm như vậy có thể tăng lên tới 10 lần.
SemiAnalysis, công ty nghiên cứu và tư vấn tập trung vào công nghệ chip, cho biết việc tích hợp chatbot AI vào công cụ tìm kiếm có thể tiêu tốn của Alphabet 3 tỉ USD, với điều kiện dùng chip nội bộ Tensor do Google sản xuất cùng nhiều sụ tối ưu hóa khác.
Khía cạnh làm cho truy vấn tìm kiếm bằng chatbot AI này đắt hơn so với tìm kiếm thông thường nằm ở sức mạnh tính toán được sử dụng. Đơn giản như việc sẽ cần nhiều hiệu năng CPU hơn để tạo ra tất cả các câu trả lời nghe có vẻ tự nhiên nhất có thể từ một chatbot AI. Điều đó cũng có nghĩa là chi phí năng lượng điện cao hơn để giữ cho các máy chủ hoạt động liên tục.
Vậy có thể làm gì để cắt giảm chi phí? Hiện tại, các nhà khoa học máy tính của OpenAI đang tìm cách tối ưu hóa chi phí suy luận thông qua mã phức tạp giúp chip chạy hiệu quả hơn, từ đó giảm chi phí vận hành. Một giải pháp nữa là Google và Microsoft có thể hiển thị các liên kết đến quảng cáo trong câu trả lời của chatbot, điều này sẽ tạo ra doanh thu bù đắp cho chi phí vận hành các máy chủ.
Một phương án khác mà ChatGPT đã và đang thực hiện; cung cấp dịch vụ đăng ký nơi người dùng có thể nhận được câu trả lời chatbot nhanh hơn và tốt hơn. Tùy chọn đó có thể là phương sách cuối cùng cho các công ty như Google và Microsoft. Khi ngày càng có nhiều người dùng truy cập vào các dịch vụ tìm kiếm mới do AI điều khiển này, họ sẽ phải tìm hiểu xem liệu chi phí có giảm xuống đủ để đạt được lợi nhuận kinh tế hay không.