Khoa học

Công nghệ AI mới của Google khiến ngành RAM “toát mồ hôi”

TurboQuant là thuật toán nén dữ liệu nhằm giải quyết vấn đề dung lượng bộ nhớ dư thừa trong lưu trữ cặp khóa-giá trị cho các mô hình trí tuệ nhân tạo (AI) mà không làm giảm độ chính xác.

TurboQuant đang nhận được rất nhiều sự quan tâm từ cộng đồng công nghệ.

TurboQuant đang nhận được rất nhiều sự quan tâm từ cộng đồng công nghệ.

Theo bài báo, TurboQuant đã đạt được kết quả xuất sắc trong tất cả các bài kiểm tra hiệu năng, đồng thời giảm kích thước bộ nhớ cặp khóa-giá trị xuống ít nhất 6 lần. Cách làm này không chỉ giúp giảm yêu cầu bộ nhớ trong các tác vụ suy luận AI mà còn làm cho bộ nhớ và lưu trữ trở nên hữu ích hơn, từ đó có khả năng tăng cường quy trình làm việc của AI, đặc biệt trong môi trường tại chỗ.

Kho lưu trữ khóa-giá trị là một loại cơ sở dữ liệu cho phép truy cập nhanh chóng vào các giá trị liên kết với các khóa duy nhất. Các vectơ trong mô hình AI mô tả thuộc tính của dữ liệu, với kích thước nhỏ cho dữ liệu đơn giản và lớn hơn cho thông tin phức tạp. Việc nén dữ liệu thông qua lượng tử hóa vectơ giúp giảm kích thước của các vectơ đa chiều, từ đó tăng cường khả năng tìm kiếm và giảm chi phí bộ nhớ.

Công nghệ nén trong TurboQuant không chỉ giảm thiểu lượng bộ nhớ cần thiết mà còn cho phép xây dựng và truy vấn các chỉ mục vectơ lớn với bộ nhớ tối thiểu và độ chính xác cao. Tuy nhiên, bài báo cũng chỉ ra rằng chi phí xử lý cho việc nén và giải nén dữ liệu có thể ảnh hưởng đến hiệu suất tổng thể - một yếu tố cần được xem xét.

TurboQuant sẽ giúp giảm nhu cầu RAM tại các trung tâm dữ liệu lớn?

TurboQuant sẽ giúp giảm nhu cầu RAM tại các trung tâm dữ liệu lớn?

Khi mà bộ nhớ đang trở nên khan hiếm, việc áp dụng các phương pháp nén như TurboQuant có thể giảm yêu cầu bộ nhớ trong các trung tâm dữ liệu AI. Tình trạng thiếu hụt bộ nhớ cũng đã ảnh hưởng đến việc sản xuất máy tính cá nhân và các thiết bị thông minh, khi các công ty trung tâm dữ liệu lớn (Big Data) đã đặt trước nguồn cung bộ nhớ cho nhiều năm tới.

Bước tiến tiếp theo trong việc sử dụng AI là phát triển Tác nhân AI, có khả năng thực hiện các tác vụ cho người dùng cá nhân. Việc triển khai Tác nhân AI tại chỗ với yêu cầu bộ nhớ thấp hơn có thể thúc đẩy nhu cầu bộ nhớ tổng thể, đặc biệt trong tương lai. Do đó, việc tối ưu hóa bộ nhớ trong các hệ thống AI không chỉ giúp cải thiện hiệu suất mà còn có thể làm tăng nhu cầu bộ nhớ trong dài hạn.

Các tin khác

NASA sẽ chi 20 tỷ USD xây căn cứ trên Mặt Trăng

NASA sẽ chi 20 tỷ USD xây căn cứ trên Mặt Trăng

Jared Isaacman, Giám đốc NASA, hôm 24/3 thông báo cơ quan này sẽ đầu tư 20 tỷ USD để phát triển căn cứ trên bề mặt Mặt Trăng, đồng thời dừng kế hoạch xây trạm quỹ đạo Mặt Trăng Gateway.
13 năm liên tiếp dẫn đầu, LG OLED khẳng định ngôi vương trên thị trường TV toàn cầu

13 năm liên tiếp dẫn đầu, LG OLED khẳng định ngôi vương trên thị trường TV toàn cầu

LG tiếp tục giữ vững vị trí dẫn đầu trên thị trường TV OLED toàn cầu trong năm thứ 13 liên tiếp, khẳng định vai trò tiên phong trong việc phát triển công nghệ hiển thị cao cấp. Bước sang năm 2026, hãng giới thiệu thế hệ TV OLED mới với nhiều nâng cấp về công nghệ và trải nghiệm giải trí, trong bối cảnh nhu cầu đối với các thiết bị chất lượng cao tiếp tục gia tăng.