Công nghệ

Huawei tạo ra chip AI mô phỏng nhanh hơn 1.000 lần so với chip Nvidia?

Trong bối cảnh cơn khát chip bán dẫn chất lượng cao đang bị kìm kẹp bởi các lệnh cấm vận từ Mỹ, Huawei vừa có một động thái gây chấn động giới công nghệ. Gã khổng lồ Trung Quốc tuyên bố phần mềm mới của họ có thể tạo ra một 'chip AI mô phỏng' với tốc độ xử lý nhanh hơn 1.000 lần so với đối thủ sừng sỏ Nvidia.

Lời giải từ phần mềm cho bài toán phần cứng của Huawei

Huawei vừa qua đã chính thức giới thiệu Flex:ai, một công cụ điều phối mã nguồn mở được thiết kế để tối ưu hóa triệt để năng lực của các cụm máy tính quy mô lớn. Được xây dựng dựa trên nền tảng Kubernetes và phát hành qua cộng đồng ModelEngine, Flex:ai không chỉ là một công cụ quản lý đơn thuần. Nó được xem là lời giải cấp bách cho chiến lược 'lấy phần mềm bù phần cứng' của Trung Quốc hiện nay.

Huawei có phần mềm biến chip thường thành 'siêu chip' nhanh gấp 1.000 lần Nvidia? - Ảnh 1.

Flex:ai giúp Huawei lách khe cửa hẹp của cấm vận chip bán dẫn?

ẢNH: SCMP

Tuyên bố đáng chú ý nhất của Huawei là khả năng "tạo ra một chip AI mô phỏng nhanh hơn 1.000 lần so với chip của Nvidia". Dù chưa công bố chi tiết kỹ thuật đằng sau con số khổng lồ này, nhưng về mặt hiệu quả thực tế, Huawei khẳng định Flex:ai giúp tăng mức sử dụng trung bình của các chip AI lên khoảng 30%.

Công nghệ 'cắt' và 'gộp'

Thay vì để các bộ tăng tốc (GPU/NPU) hoạt động rời rạc và lãng phí tài nguyên, Flex:ai sử dụng cơ chế ảo hóa thông minh. Công cụ này 'cắt nhỏ' các card GPU hoặc NPU vật lý thành nhiều phiên bản tính toán ảo.

  • Với các tác vụ nhỏ: Flex:ai xếp chồng chúng lên nhau để tận dụng tối đa khoảng trống tài nguyên.
  • Với các mô hình AI khổng lồ: Nó cho phép khối lượng công việc trải rộng trên nhiều card khác nhau, vượt qua giới hạn vật lý của một thiết bị đơn lẻ.

Trái tim của hệ thống là 'Hi Scheduler' - có khả năng điều chuyển tài nguyên nhàn rỗi theo thời gian thực, đảm bảo không có sức mạnh tính toán nào bị bỏ phí khi các tác vụ AI đang xếp hàng chờ đợi.

Tham vọng thống nhất các hệ chip không đồng nhất

Điểm khác biệt lớn của Flex:ai so với các giải pháp hiện có là khả năng tương thích chéo. Trong khi các công cụ như Run:ai (đã bị Nvidia thâu tóm năm 2024) tập trung vào hệ sinh thái của Nvidia, thì Flex:ai lại hướng tới việc thống nhất các loại phần cứng khác nhau. Nó hỗ trợ mạnh mẽ cho các dòng chip Ascend 'tự trồng' của Huawei song song với các GPU tiêu chuẩn khác.

Công cụ này được phát triển với sự đóng góp từ các nhà nghiên cứu tại Đại học Giao thông Thượng Hải, Đại học Giao thông Tây An và Đại học Hạ Môn (Trung Quốc).

Hiện tại, mã nguồn và các kết quả kiểm thử cụ thể vẫn chưa được Huawei công bố. Giới chuyên môn đang đặt ra những câu hỏi lớn rằng liệu Flex:ai có thực sự tương thích mượt mà với các loại GPU phổ biến thông qua plugin tiêu chuẩn? Và liệu con số 'nhanh hơn 1.000 lần' là một bước đột phá thực sự hay chỉ là một phép so sánh mang tính tiếp thị trong môi trường giả lập? Câu trả lời sẽ có khi Flex:ai chính thức đến tay cộng đồng lập trình viên.

Các tin khác

Công điện hỏa tốc ứng phó thiên tai kép

Bộ Tổng tham mưu Quân đội nhân dân Việt Nam có công điện hỏa tốc yêu cầu các đơn vị trong quân đội ứng phó bão số 15, áp thấp nhiệt đới và khắc phục hậu quả mưa lũ khu vực Trung bộ.