Microsoft và Google đang cạnh tranh trong việc đưa mô hình trí tuệ nhân tạo tối tân vào công cụ tìm kiếm. Trong khi đó, những startup tỷ USD như OpenAI hay Stability AI liên tục công bố phần mềm AI với nhiều tính năng đặc biệt.
Đứng sau những ứng dụng đó là Nvidia A100, chip xử lý ra mắt năm 2020, có giá 10.000 USD và được coi là một trong những thành phần thiết yếu nhất của ngành công nghiệp AI.
"A100 đang trở thành thiết bị chủ lực với các doanh nghiệp trong lĩnh vực AI", Nathan Benaich, nhà đầu tư về AI, nhận xét. Thống kê của công ty nghiên cứu New Street Research cho thấy Nvidia hiện chiếm 95% thị phần bộ xử lý đồ họa có thể dùng trong học máy.
A100 đang được sử dụng trong các mô hình học máy đứng sau ChatGPT, Bing AI và Stable Diffusion, nhờ khả năng tiến hành đồng thời hàng loạt tính toán đơn giản, đóng vai trò quan trọng với việc huấn luyện và sử dụng mạng thần kinh nhân tạo.
Dòng chip này được phát triển trên kiến trúc Ampere, vốn được dùng trong chip đồ họa GeForce RTX 3000. Tuy nhiên, A100 được tối ưu hóa cho nhiệm vụ học máy, chuyên hoạt động trong máy chủ tại trung tâm dữ liệu, thay vì máy tính để bàn thông thường.
Mỗi doanh nghiệp phát triển AI cần từ hàng trăm đến hàng nghìn chip A100 để xử lý lượng lớn dữ liệu và tạo ra nội dung theo yêu cầu. Họ có thể mua trực tiếp hoặc thuê quyền sử dụng từ các nhà cung cấp dịch vụ đám mây.
Một số người còn coi số chip A100 có thể tiếp cận là dấu hiệu cho thấy tiến bộ. "Một năm trước, chúng tôi chỉ có 32 chip A100", Emad Mostaque, CEO của Stability AI - công ty phát triển Stable Diffusion, nói hồi tháng 1. Giờ đây, họ đã sử dụng hơn 5.400 chip A100, chưa kể số lượng chip thuê từ các nhà cung cấp đám mây.
Doanh thu quý IV/2022 của Nvidia giảm 21% so với cùng kỳ trước đó, nhưng mảng chip AI lại tăng trưởng 11%, đạt 3,6 tỷ USD. Nhờ đó, cổ phiếu của hãng cũng tăng 65%, vượt nhiều doanh nghiệp trong lĩnh vực bán dẫn. CEO Nvidia Jensen Huang liên tục nhắc tới AI trong cuộc họp với các nhà phân tích tháng này, rằng sự bùng nổ của trí tuệ nhân tạo đóng vai trò trung tâm với chiến lược phát triển công ty hiện nay.
Các phần mềm thông thường chỉ khai thác năng lực xử lý của chip trong từng khoảng ngắn vài mili giây, trong khi ứng dụng học máy có thể dùng toàn bộ hiệu năng trong vài giờ hoặc vài ngày. Có nghĩa, những công ty có sản phẩm AI thành công sẽ liên tục phải bổ sung chip xử lý để đáp ứng nhu cầu cao hoặc cải thiện mô hình huấn luyện.
Những chip như A100 không rẻ. Ngoài giải pháp gắn card với một chip vào máy chủ, nhiều trung tâm dữ liệu đang vận hành hệ thống khép kín với 8 chip A100 hoạt động đồng thời. Hệ thống này được Nvidia đặt tên là DGX A100 với giá đề xuất gần 200.000 USD. Ngoài giải pháp bán hàng trọn gói, Nvidia thông báo sẽ cấp quyền truy cập qua đám mây, giúp giảm chi phí cho giới nghiên cứu và người đam mê công nghệ.
New Street Research ước tính, mô hình ChatGPT được dùng trong Bing có thể cần 8 chip A100 để đưa ra câu trả lời trong chưa đầy một giây. Microsoft sẽ cần tới hơn 20.000 hệ thống DGX A100 để bảo đảm khả năng phản hồi trơn tru của Bing với toàn bộ người dùng, tương ứng mức giá hơn 4 tỷ USD riêng cho máy tính.
"Nếu áp dụng với Google, chi phí sẽ là hơn 80 tỷ USD chỉ tính riêng cho DGX, nhằm đáp ứng 8-9 tỷ câu hỏi mỗi ngày. Đây là con số khổng lồ, phản ánh thực tế là các yêu cầu của người dùng luôn đòi hỏi năng lực xử lý khổng lồ", Antoine Chkaiban, nhà phân tích tại New Street Research, cho hay.
Phiên bản mới nhất của AI vẽ tranh Stable Diffusion được huấn luyện trên 256 chip A100 và đòi hỏi 200.000 giờ tính toán liên tục. Nhà phát triển Stability AI dự kiến tiêu tốn 600.000 USD chỉ để huấn luyện mô hình, chưa tính đến chi phí triển khai trong thực tế.
CEO Huang khẳng định giải pháp của Nvidia thực tế vẫn tương đối rẻ so với năng lực tính toán cho các mô hình AI hiện nay. "Chúng tôi tạo ra những trung tâm dữ liệu trị giá 100 triệu USD để làm nhiệm vụ của các hệ thống vận hành bằng CPU có giá tới một tỷ USD. Khi được đưa lên đám mây và chia sẻ với 100 công ty khác nhau, con số 100 triệu USD gần như không còn ý nghĩa gì", ông nói.
Huang nói chip đồ họa Nvidia cho phép các startup huấn luyện mô hình AI với chi phí rẻ hơn nhiều so với dùng bộ xử lý truyền thống.
Nvidia không phải công ty duy nhất sản xuất chip cho AI. AMD và Intel cũng có chip đồ họa với khả năng xử lý nhiều luồng dữ liệu song song, còn Google và Amazon cũng phát triển và triển khai chip thiết kế riêng cho hoạt động trí tuệ nhân tạo.
"Dù vậy, phần cứng AI đang tập trung trong tay Nvidia", báo cáo của Benaich nêu. Tính đến tháng 12/2022, hơn 21.000 tài liệu nguồn mở về AI xác nhận đang sử dụng chip Nvidia.
Phần lớn giới nghiên cứu vẫn dùng chip Nvidia V100 trên kiến trúc Volta ra đời năm 2017, nhưng A100 đang trở thành dòng chip được dùng nhiều thứ ba, chỉ sau phiên bản GPU cùng kiến trúc dành cho máy tính để bàn.
A100 cũng là một trong số ít chip bán dẫn bị áp hạn chế xuất khẩu vì lý do an ninh quốc gia. Nvidia cuối năm ngoái thông báo chính phủ Mỹ cấm xuất khẩu dòng A100 và phiên bản H100 mới hơn đến Trung Quốc và Nga, vì lo ngại rằng chúng có thể được dùng cho mục đích quân sự.
Đối thủ cạnh tranh lớn nhất của A100 có thể chính là sản phẩm kế nhiệm của nó. H100 được công bố năm 2022 và đang bắt đầu được sản xuất với số lượng lớn, trong đó Nvidia ghi nhận lợi nhuận của H100 trong quý IV/2022 đã vượt qua A100, dù mẫu chip mới có giá đắt đỏ hơn.
(Theo CNBC)