“Giám khảo AI” có khả năng học thủ thuật mới để kiểm tra thông tin và lập trình tốt hơn

Các nhà nghiên cứu và phát triển AI đang có xu hướng ngày càng sử dụng phô biến các mô hình ngôn ngữ lớn (LLM) để đánh giá câu trả lời của các LLM khác trong một quy trình gọi là “LLM-đóng-vai-trò-giám-khảo” (LLM-as-a-judge). Tuy nhiên, chất lượng của những đánh giá này thường giảm sút trong những nhiệm vụ phức tạp như kiểm tra thông tin dài hạn (long-form factual checking), lập trình nâng cao và giải toán.

Giờ đây, một nghiên cứu mới được công bố bởi các nhà nghiên cứu từ Đại học Cambridge và Apple đã đề xuất một hệ thống mới, tăng cường khả năng cho các "giám khảo" AI bằng các công cụ xác thực bên ngoài nhằm cải thiện chất lượng phán đoán của chúng.

Hệ thống này nhằm khắc phục những hạn chế vốn có ở cả chú thích của con người và AI. Con người gặp phải thách thức và thiên kiến do giới hạn thời gian, mệt mỏi và bị ảnh hưởng bởi phong cách viết hơn là độ chính xác thực tế. Trong khi đó, AI lại gặp khó khăn với các nhiệm vụ phức tạp như đã nêu ở trên.

“Giám khảo AI” có khả năng học thủ thuật mới để kiểm tra thông tin và lập trình tốt hơn

Framework “Evaluation Agent” mới mà các nhà nghiên cứu tạo ra có tính tự chủ (agentic), cho phép nó đánh giá câu trả lời để xác định xem có cần công cụ bên ngoài hay không và sử dụng đúng công cụ. Mỗi lần đánh giá trải qua ba bước chính: đánh giá ban đầu về lĩnh vực, sử dụng công cụ và đưa ra quyết định cuối cùng.

  • Công cụ kiểm tra thông tin (fact-checking) sử dụng tìm kiếm web để xác minh các thông tin nguyên tử (atomic facts) trong câu trả lời.
  • Công cụ thực thi mã (code execution) tận dụng trình thông dịch mã (code interpreter) của OpenAI để chạy và kiểm tra tính chính xác của mã.
  • Công cụ kiểm tra toán (math checker) là một phiên bản chuyên biệt của công cụ thực thi mã dùng để xác thực các phép toán và thao tác số học.

Nếu không có công cụ nào hữu ích để đưa ra phán đoán, hệ thống sẽ sử dụng bộ chú thích LLM cơ bản để tránh xử lý không cần thiết và nguy cơ giảm hiệu suất trên các nhiệm vụ đơn giản.

Hệ thống mang lại những cải thiện đáng kể trong việc kiểm tra thông tin dài hạn, với sự gia tăng rõ rệt về mức độ đồng thuận với các chú thích thực tế (ground-truth annotations) trên nhiều nền tảng so sánh (baselines). Trong các nhiệm vụ lập trình, phương pháp dựa trên đặc vụ (agent-based) đã cải thiện đáng kể hiệu suất trên tất cả các nền tảng so sánh. Đối với các bài toán khó, các đặc vụ cải thiện hiệu suất so với một số nền tảng, nhưng không phải tất cả, và tổng mức độ đồng thuận vẫn tương đối thấp, khoảng 56%. Đáng chú ý, các nhà nghiên cứu nhận thấy rằng đối với các câu trả lời kiểm tra thông tin dài hạn, mức độ đồng thuận của đặc vụ với thực tế cao hơn cả so với chú thích của con người.

Framework này có thể mở rộng, vì vậy trong tương lai, các công cụ khác có thể được tích hợp để tiếp tục cải thiện các hệ thống đánh giá LLM. Mã nguồn cho khung này sẽ được mở (open source) trên GitHub của Apple, nhưng hiện vẫn chưa chính thức công bố.

Chủ Nhật, 27/07/2025 06:40
31 👨 74
Xác thực tài khoản!

Theo Nghị định 147/2024/ND-CP, bạn cần xác thực tài khoản trước khi sử dụng tính năng này. Chúng tôi sẽ gửi mã xác thực qua SMS hoặc Zalo tới số điện thoại mà bạn nhập dưới đây:

Số điện thoại chưa đúng định dạng!
Số điện thoại này đã được xác thực!
Bạn có thể dùng Sđt này đăng nhập tại đây!
Lỗi gửi SMS, liên hệ Admin
0 Bình luận
Sắp xếp theo