Sau bao đồn đoán, Meta cuối cùng cũng đã chính thức công bố Llama 2, phiên bản thế hệ tiếp theo của mô hình ngôn ngữ lớn dành cho các ứng dụng và dịch vụ AI tổng quát. Đáng chú ý hơn, đang có thông tin về mối quan hệ hợp tác mới được ký kết giữa Meta và Qualcomm sẽ cho phép sử dụng Llama 2 trên các thiết bị di động chạy trên vi xử lý Qualcomm Snapdragon, hứa hẹn những sự đổi mới, bổ sung thú vị liên quan đến lĩnh vực trí tuệ nhân tạo trên điện thoại thông minh.
Trong một thông cáo báo chí, phía Qualcomm cũng cho biết mục tiêu của thỏa thuận hợp tác với Meta là cho phép các thiết bị sử dụng chip Snapdragon có thể chạy tốt các ứng dụng và dịch vụ dựa trên nền tảng Llama 2 mà không cần kết nối với dịch vụ đám mây như đa số các sản phẩm AI hiện tại bao gồm ChatGPT và Bing Chat. Công ty tuyên bố:
“Khả năng chạy các mô hình AI tổng quát như Llama 2 trên những thiết bị như điện thoại thông minh, PC, tai nghe VR/AR… cho phép các nhà phát triển tiết kiệm chi phí đám mây, đồng thời cung cấp cho người dùng trải nghiệm riêng tư, đáng tin cậy và được cá nhân hóa tốt hơn”.
Llama (Large Language Model Meta AI) là một mô hình hoạt động dưới dạng mở, cho phép các nhà nghiên cứu và tổ chức chính phủ, xã hội, học viện dùng miễn phí. Meta cho biết các mô hình ngôn ngữ lớn (LLM) đã được chứng minh là cho hiệu quả rất cao trong việc tạo văn bản, trò chuyện, tóm tắt tài liệu và giải quyết các vấn đề khác liên quan đến toán học và khoa học. Chúng khai thác lượng lớn văn bản để tóm tắt thông tin và tạo nội dung, chẳng hạn có thể trả lời các câu hỏi bằng văn bản như thể được viết bởi con người. Đây cũng là lợi thế lớn nhất mà các công ty cũng như người dùng nhắm đến.
Qualcomm cho biết khả năng chạy các mô hình ngôn ngữ lớn như Llama 2 trên thiết bị di động sẽ mang đến một số lợi thế rõ ràng. Dễ nhận thấy nhất là có thể tiết kiệm chi phí hơn so với sử dụng LLM dựa trên đám mây. Đồng thời mang lại hiệu suất tốt hơn vì sẽ không phải kết nối với một dịch vụ trực tuyến. Đồng thời, LLM trên thiết bị có thể cung cấp nhiều dịch vụ AI được cá nhân hóa hơn. Nó cũng có thể an toàn và riêng tư hơn so với kết nối với máy chủ đám mây.
Hiện tại, Qualcomm có kế hoạch bắt đầu hỗ trợ các dịch vụ AI dựa trên Llama 2 trên các thiết bị sử dụng chip Snapdragon vào khoảng năm 2024. Vẫn chưa có thông tin nào về việc liệu Llama 2 có cần chip Qualcomm thế hệ mới nhất để hoạt động, hay có thể được tương thích luôn với các chip Snapdragon hiện tại.