Zalo AI và Viện Khoa học & Công nghệ Tiên tiến Nhật Bản (JAIST) vừa giới thiệu phiên bản mới của VMLU (Vietnamese Multitask Language Understanding) - bộ tiêu chuẩn đánh giá năng lực tiếng Việt của các mô hình ngôn ngữ lớn (LLM). Động thái này nhằm thúc đẩy cộng đồng AI hoàn thiện các mô hình LLM bậc cao, hướng tới mục tiêu xây dựng AI có chủ quyền cho Việt Nam.

Được giới thiệu lần đầu tiên vào năm 2023, VMLU đã trở thành bộ tiêu chuẩn “Make in Vietnam” tiên phong cho nhiều nhóm nghiên cứu trong nước cải tiến chất lượng LLM tiếng Việt. Trong năm 2024, VMLU đã công bố 45 LLM trên bảng xếp hạng, tiếp nhận yêu cầu đánh giá của hơn 155 tổ chức và cá nhân, tổng kết 691 lượt tải bộ tiêu chuẩn đánh giá và 3.729 lượt đánh giá LLM từ nền tảng.
Cụ thể hơn, bộ tiêu chuẩn đã được nhiều tổ chức trong và ngoài nước sử dụng, như VinBigData, VNPT AI, Viettel Solutions, Trường ĐH Bách Khoa - ĐHQG TP.HCM, UONLP x Ontocord - Trường ĐH Oregon (Hoa Kỳ), DAMO Academy - Alibaba Group, SDSRV teams - Samsung,…
Trong bối cảnh các mô hình AI ngày càng trở nên thông minh, phiên bản VMLU được nâng cấp để đánh giá sâu hơn những năng lực phức tạp. Cụ thể, bộ tiêu chuẩn mở rộng đánh giá 3 kỹ năng cốt lõi của một LLM hiện đại, bao gồm:
- Đọc hiểu (ViSQuAD): 3.310 câu hỏi đánh giá khả năng hiểu sâu văn bản, xử lý các câu hỏi phức tạp dựa trên đặc thù ngôn ngữ và ngữ cảnh tiếng Việt.
- Suy luận (ViDrop): 3.090 câu hỏi thách thức khả năng suy luận logic của LLM qua các tác vụ như so sánh, đếm, và tính toán số học.
- Tương tác (ViDialog): 210 hội thoại đánh giá sự mạch lạc, khả năng hiểu ngữ cảnh và vận dụng kiến thức đa lĩnh vực (lịch sử, địa lý, logic) trong đối thoại.
Điểm nổi bật của bộ tiêu chuẩn mới là phương pháp đánh giá tiên tiến, kết hợp đa dạng hình thức từ trắc nghiệm, câu hỏi mở đến yêu cầu suy luận từng bước. Đặc biệt, VMLU áp dụng phương pháp “LLM as a judge” (dùng LLM để đánh giá LLM) - một xu hướng đang được cộng đồng AI toàn cầu áp dụng để có kết quả khách quan và quy mô hơn.
Với 10.880 câu hỏi trắc nghiệm thuộc 58 chủ đề được chia theo nhiều cấp độ, phiên bản 2023 đã tập trung vào đánh giá kiến thức nền tảng của LLM. Trong khi đó, bộ tiêu chuẩn mới tiến một bước xa hơn, đo lường khả năng suy luận và tương tác của LLM trong những ngữ cảnh thực tế. Sự nâng cấp này không chỉ giúp các nhà phát triển đánh giá mô hình toàn diện hơn mà còn thúc đẩy LLM tạo ra những giá trị hữu ích cho người dùng cuối.
Hiện bộ tiêu chuẩn mới đã được ra mắt trên website VMLU https://vmlu.ai/ để các cá nhân, và nhóm nghiên cứu thực hiện đánh giá mô hình của mình.