Alibaba vừa chính thức công bố mô hình lập luận mới nhất của mình, và có vẻ như DeepSeek và OpenAI sẽ ít nhiều phải cảm thấy lo lắng — nếu tất cả những lời “quảng cáo” của Alibaba đều là sự thật. Mô hình này là mã nguồn mở, vì vậy tất cả mọi người đều có thể truy cập và trải nghiệm miễn phí
Có tên QwQ-32b (Quan-with-Questions), mô hình AI mới của Alibaba chạy trên ít tham số hơn đáng kể so với hầu hết tất cả mô hình ngôn ngữ lớn hiện nay, nghĩa là nó yêu cầu ít tài nguyên hơn. Alibaba tuyên bố QwQ-32b hoạt động ở cùng cấp độ với DeepSeek hoặc o1-mini của OpenAI.
Mô hình ngôn ngữ lớn (LLM) DeepSeek-R1 đã gây sốt khi ra mắt vào đầu tháng 2, trở thành cái tên thánh thức với tiêu chuẩn vàng do ChatGPT đặt ra, nhưng với chi phí vận hành thấp hơn nhiều. Với QwQ-32b, có vẻ như Alibaba muốn đẩy giới hạn này đi xa hơn nữa.
Về mặt kỹ thuật DeepSeek-R1 yêu cầu 671 tỷ tham số để chạy, với 37 tỷ tham số được kích hoạt. Trong khi đó, QwQ-32b của Alibaba chỉ cần 32 tỷ tham số. Những con số này có thể trừu tượng với nhiều người, nhưng mang đến sự khác biệt lớn về sức mạnh tính toán: trong khi DeepSeek-R1 yêu cầu 1600GB VRAM để chạy, QwQ-32b chỉ cần 24GB VRAM. Trong hầu hết các trường hợp, điều này sẽ yêu cầu card đồ họa như Nvidia H100 hoặc tương đương, nhưng ngay cả RTX 4090 dành cho game thủ cũng có 24GB VRAM. RTX 5090 mới nhất nâng con số này lên 32GB.
Thậm chí có ý kiến cho rằng dù chỉ có 32 tỉ tham số, QwQ-32B vẫn cho hiệu suất ngang bằng hoặc vượt trội R1 trong các lĩnh vực như toán học, lập trình và giải quyết vấn đề chung. Alibaba cũng cho biết QwQ-32B vượt trội hơn o1-mini của OpenAI, được xây dựng với 100 tỉ tham số. QwQ-32B có sẵn trên Hugging Face, cộng đồng mô hình AI nguồn mở lớn nhất thế giới.
QwQ-32b của Alibaba được cung cấp dưới giấy phép Apache 2.0, nghĩa là các công ty và nhà nghiên cứu có thể thoải mái sử dụng. Quan trọng hơn, chúng ta có thể dùng thử thông qua Qwen Chat của Alibaba. Giống như DeepSeek, QwQ-32b có một số hạn chế về mặt giới hạn chủ đề. Chẳng hạn khi được hỏi về các vấn đề chính trị, Qwen Chat sẽ đưa ra thông báo rằng đây là chủ đề không phù hợp. Nhưng cũng có một vài ưu điểm dễ dàng nhận thấy ngay lập tức.
QwQ-32b dường như đưa ra các câu trả lời khá chi tiết ngay cả với những câu hỏi nhanh và đơn giản. Điều này có thể tốt, nhưng theo một cách nào đó, khá phiền phức vì cung cấp nhiều thông tin không cần thiết mà bạn không yêu cầu. Một điểm cộng là QwQ-32b có thể hiển thị toàn bộ quá trình lập luận, tương tự như tính năng Deep Thinking của ChatGPT — nhưng với độ sâu không bằng.
Liệu các tuyên bố của Alibaba có trở thành sự thật hay không vẫn cần được kiểm chứng, nhưng có vẻ như ChatGPT và DeepSeek giờ đây đã có một đối thủ mới xứng tầm.