Google đã công bố thế hệ tiếp theo của Pathways Language Model (PaLM 2) vào ngày 10 tháng 5 năm 2023, tại Google I/O 2023. Mô hình ngôn ngữ lớn (LLM) mới của PaLM 2 tự hào có nhiều cải tiến so với phiên bản tiền nhiệm (PaLM) và cuối cùng có thể là sẵn sàng đối đầu với đối thủ lớn nhất của nó, GPT-4 của OpenAI.
Nhưng Google đã cải tiến được bao nhiêu? Liệu PaLM 2 có phải là thứ tạo nên sự khác biệt mà Google kỳ vọng? PaLM 2 khác với GPT-4 của OpenAI như thế nào?
Tổng quan về hiệu suất của PaLM 2 và GPT-4
PaLM 2 được tích hợp nhiều khả năng mới và cải tiến so với phiên bản tiền nhiệm. Một trong những lợi thế độc đáo của PaLM 2 so với GPT-4 là nó có sẵn ở các kích thước nhỏ hơn dành riêng cho một số ứng dụng không có nhiều sức mạnh xử lý tích hợp.
Tất cả các kích thước khác nhau này đều có các mô hình nhỏ hơn của riêng chúng được gọi là Gecko, Otter, Bison và Unicorn, trong đó Gecko là nhỏ nhất, tiếp theo là Otter, Bison và cuối cùng là Unicorn, mô hình lớn nhất.
Google cũng tuyên bố cải thiện về khả năng suy luận so với GPT-4 trong WinoGrande và DROP, trong khi GPT-4 trước đây có một biên độ hẹp trong ARC-C. Tuy nhiên, có sự cải thiện đáng kể khi nói đến PaLM và SOTA.
PaLM 2 cũng giỏi toán hơn, theo tài liệu nghiên cứu PaLM 2 dài 91 trang của Google. Tuy nhiên, cách Google và OpenAI cấu trúc kết quả thử nghiệm của họ khiến việc so sánh trực tiếp hai mô hình trở nên khó khăn. Google cũng bỏ qua một số so sánh, có thể là do PaLM 2 không hoạt động tốt như GPT-4.
Trong MMLU, GPT-4 đạt 86,4 điểm, trong khi PaLM 2 đạt 81,2 điểm. Điều tương tự cũng xảy ra với HellaSwag, trong đó GPT-4 đạt 95,3 điểm, nhưng PaLM 2 chỉ có thể đạt được 86,8 và ARC-E, trong đó GPT-4 và PaLM 2 lần lượt đạt 96,3 và 89,7.
Mô hình lớn nhất trong dòng PaLM 2 là PaLM 2-L. Mặc dù không biết kích thước chính xác của nó, nhưng chắc chắn nhỏ hơn đáng kể so với mô hình PaLM lớn nhất nhưng sử dụng nhiều máy tính đào tạo hơn. Theo Google, PaLM có 540 tỷ tham số, do đó, "nhỏ hơn đáng kể" nên đặt PaLM 2 ở bất kỳ đâu trong khoảng từ 10 đến 300 tỷ tham số. Hãy nhớ rằng những con số này chỉ là giả định dựa trên những gì Google đã nói trong bài báo PaLM 2.
Nếu con số này ở bất kỳ đâu gần 100 tỷ hoặc thấp hơn, PaLM 2 rất có thể nhỏ hơn về mặt tham số so với GPT-3.5. Việc xem xét một mô hình có khả năng dưới 100 tỷ đồng có thể đối đầu với GPT-4 và thậm chí đánh bại nó ở một số tác vụ là điều rất ấn tượng. GPT-3.5 ban đầu đã thổi bay mọi thứ, bao gồm cả PaLM, nhưng PaLM 2 đã phục hồi khá tốt.
Sự khác biệt trong dữ liệu đào tạo GPT-4 và PaLM 2
Mặc dù Google chưa tiết lộ kích thước tập dữ liệu đào tạo của PaLM 2, nhưng công ty đã báo cáo trong tài liệu nghiên cứu của mình rằng tập dữ liệu đào tạo của LLM mới lớn hơn đáng kể. OpenAI cũng thực hiện cách tiếp cận tương tự khi công bố GPT-4, không đưa ra tuyên bố nào về kích thước của tập dữ liệu đào tạo.
Tuy nhiên, Google muốn tập trung vào hiểu biết sâu hơn về toán học, logic, lý luận và khoa học, nghĩa là phần lớn dữ liệu đào tạo của PaLM 2 tập trung vào các chủ đề nói trên. Google cho biết trong bài báo của mình rằng kho văn bản trước khi đào tạo của PaLM 2 bao gồm nhiều nguồn, bao gồm tài liệu web, sách, code, toán học và dữ liệu đàm thoại, mang lại cho nó những cải tiến trên diện rộng, ít nhất là khi so sánh với PaLM.
Các kỹ năng đàm thoại của PaLM 2 cũng phải ở một cấp độ khác vì mô hình này đã được đào tạo bằng hơn 100 ngôn ngữ để giúp nó hiểu ngữ cảnh và có khả năng dịch thuật tốt hơn.
Theo như dữ liệu đào tạo của GPT-4 được xác nhận, OpenAI đã nói với chúng tôi rằng họ đã đào tạo mô hình bằng cách sử dụng dữ liệu có sẵn công khai và dữ liệu được cấp phép. Trang nghiên cứu của GPT-4 cho biết: "Dữ liệu là một kho dữ liệu có quy mô web bao gồm các giải pháp đúng và sai cho các bài toán, lập luận yếu và mạnh, những tuyên bố mâu thuẫn và nhất quán, đồng thời đại diện cho nhiều hệ tư tưởng và ý tưởng khác nhau".
Khi GPT-4 được đặt một câu hỏi, nó có thể tạo ra nhiều câu trả lời khác nhau, không phải tất cả các câu trả lời đều có liên quan đến truy vấn của bạn. Để phù hợp với mục đích của người dùng, OpenAI đã tinh chỉnh hành vi của mô hình bằng cách sử dụng phương pháp học tăng cường với phản hồi của con người.
Mặc dù không biết dữ liệu đào tạo chính xác mà một trong hai mô hình này đã được đào tạo, nhưng chúng tôi biết rằng mục đích đào tạo rất khác nhau. Chúng ta sẽ phải chờ xem sự khác biệt về mục đích đào tạo giữa hai mô hình này như thế nào khi triển khai trong thế giới thực.
Dịch vụ và Chatbot PaLM 2 và GPT-4
Cổng đầu tiên để truy cập cả hai LLM là sử dụng chatbot tương ứng của chúng, Bard của PaLM 2 và ChatGPT của GPT-4. Tuy nhiên, GPT-4 yêu cầu trả phí qua ChatGPT Plus và người dùng miễn phí chỉ có quyền truy cập vào GPT-3.5. Mặt khác, Bard miễn phí cho tất cả mọi người và có sẵn trên 180 quốc gia.
Điều đó không có nghĩa là bạn không thể truy cập GPT-4 miễn phí. Bing AI Chat của Microsoft sử dụng GPT-4 và hoàn toàn miễn phí, mở cho tất cả mọi người và khả dụng ngay bên cạnh Bing Search, đối thủ lớn nhất của Google trong lĩnh vực này.
Google I/O 2023 tràn ngập các thông báo về cách PaLM 2 và việc tích hợp AI thế hệ mới sẽ cải thiện trải nghiệm Google Workspace với các tính năng AI sẽ có trên Google Docs, Sheets, Slides, Gmail và gần như mọi dịch vụ mà gã khổng lồ tìm kiếm cung cấp. Ngoài ra, Google đã xác nhận rằng PaLM 2 đã được tích hợp vào hơn 25 sản phẩm của Google, bao gồm cả Android và YouTube.
Để so sánh, Microsoft đã đưa các tính năng AI vào bộ chương trình Microsoft Office và nhiều dịch vụ của nó. Hiện tại, bạn có thể trải nghiệm cả hai LLM trong các phiên bản riêng của chúng.
Tuy nhiên, kể từ khi GPT-4 ra mắt và cẩn thận để tránh nhiều lỗi ngớ ngẩn mà Google đã mắc phải với Bard ban đầu, nó đã trở thành LLM thực tế cho các nhà phát triển bên thứ ba, các công ty khởi nghiệp và bất kỳ ai khác muốn kết hợp một mô hình AI có khả năng trong dịch vụ của họ cho đến nay.
Điều đó không có nghĩa là các nhà phát triển sẽ không chuyển sang hoặc ít nhất là dùng thử PaLM 2, nhưng Google vẫn phải bắt kịp OpenAI về khía cạnh này. Và thực tế là PaLM 2 có mã nguồn mở, thay vì bị khóa sau một API trả phí, nghĩa là nó có tiềm năng được áp dụng rộng rãi hơn GPT-4.
PaLM 2 có thể đánh bại GPT-4 không?
PaLM 2 vẫn còn rất mới, vì vậy câu trả lời liệu nó có thể cạnh tranh với GPT-4 hay không vẫn còn cần thời gian. Tuy nhiên, với tất cả những gì Google đang hứa hẹn và cách thức tích cực mà hãng đã quyết định sử dụng để truyền bá nó, có vẻ như PaLM 2 sẽ là một đối thủ đáng gờm đối với GPT-4.
Tuy nhiên, GPT-4 vẫn là một mô hình khá có khả năng và, như đã đề cập trước đó, đánh bại PaLM 2 trong một số so sánh. Tuy nhiên, nhiều mô hình nhỏ hơn của PaLM 2 mang lại cho nó một lợi thế không thể chối cãi. Bản thân Gecko rất nhẹ nên có thể hoạt động trên thiết bị di động, ngay cả khi ngoại tuyến. Điều này có nghĩa là PaLM 2 có thể hỗ trợ một loại sản phẩm và thiết bị hoàn toàn khác có thể gặp khó khăn khi sử dụng GPT-4.
Cuộc đua AI đang nóng lên
Với sự ra mắt của PaLM2, cuộc đua giành vị trí thống trị AI đã nóng lên, vì đây có thể là đối thủ xứng tầm đầu tiên đối đầu với GPT-4. Với một mô hình AI đa phương thức mới hơn có tên là "Gemini" cũng đang được đào tạo, Google không có bất kỳ dấu hiệu chậm lại nào ở đây.