Theo Sammyfans, nhà nghiên cứu AI cấp cao Alexia Jolicoeur-Martineau tại Viện Công nghệ Tiên tiến (SAIT) của Samsung ở Montreal (Canada) đã công bố một bài báo mang tên Less is More nhằm giới thiệu Tiny Recursive Model (TRM).
Nội dung bài báo cho biết TRM sử dụng mô hình AI với 7 triệu tham số và chỉ 2 lớp. Mô hình này đã được đào tạo trên gần 1.000 ví dụ và cho kết quả vượt trội so với các mô hình hàng đầu hiện nay, vốn có sức mạnh lớn hơn hàng nghìn lần.

Sau DeepSeek, thêm Samsung khiến ChatGPT và Gemini phải lo ngại
ẢNH: FORBES
Samsung chứng minh AI mạnh không cần kích thước khổng lồ
Theo nghiên cứu, TRM của Samsung đã thể hiện khả năng vượt trội so với các mô hình ngôn ngữ tiên tiến như o3-mini của OpenAI và Gemini 2.5 Pro của Google trong một số tiêu chuẩn nghiên cứu AI về lập luận khó.
Mô hình này đã hoạt động hiệu quả với các bài toán có cấu trúc phức tạp như Sudoku, mê cung và các câu đố trên chuẩn ARC-AGI, vốn được coi là thách thức lớn đối với các mô hình AI. Trong quá trình thử nghiệm, TRM đạt được các kết quả ấn tượng:
- Độ chính xác 87,4% trên Sudoku-Extreme (tăng từ 55% so với mô hình HRM trước đó).
- Độ chính xác 85% đối với các câu đố Maze-Hard.
- Độ chính xác 45% trên ARC-AGI-1.
- Độ chính xác 8% trên ARC-AGI-2.
Trong nội dung bài viết chia sẻ trên X, Jolicoeur-Martineau cho rằng suy nghĩ phải dựa vào các mô hình nền tảng khổng lồ được đào tạo với chi phí hàng triệu USD bởi một số tập đoàn lớn để giải quyết các nhiệm vụ khó khăn là một cái bẫy. Ông cho rằng, chúng ta đang quá chú trọng vào việc khai thác bằng LLM (ngôn ngữ lớn) thay vì thiết kế và mở rộng các hướng đi mới.
Jolicoeur-Martineau tin rằng, TRM là bằng chứng cho thấy một mô hình AI nhỏ vẫn có thể đạt hiệu suất đáng kinh ngạc mà không tốn kém tài nguyên khi được đào tạo từ đầu và liên tục cập nhật theo thời gian. Tất cả đạt được nhờ vào cơ chế tự cải thiện, tức thay vì chỉ thực thi một lần để đưa ra kết quả, TRM lặp lại nhiều vòng cải thiện dự đoán của mình dựa trên kết quả trước đó.