Công nghệ

Chatbot AI có "ngốn điện" như lời đồn?

Chỉ trong vài năm gần đây, ChatGPT đã bùng nổ về mức độ phổ biến, với gần 200 triệu người dùng nhập vào hơn một tỷ lệnh yêu cầu mỗi ngày. Những phản hồi tưởng chừng như được xử lý “từ không khí” ấy thực ra lại tiêu tốn một nguồn năng lượng khổng lồ phía sau hậu trường.

Năm 2023, các trung tâm dữ liệu — nơi đào tạo và vận hành AI — chiếm tới 4,4% lượng điện năng tiêu thụ tại Mỹ. Trên toàn cầu, con số này vào khoảng 1,5% tổng nhu cầu điện. Dự báo đến năm 2030, mức tiêu thụ sẽ tăng gấp đôi khi nhu cầu AI tiếp tục leo thang.

“Chỉ ba năm trước, chúng ta thậm chí còn chưa có ChatGPT,” ông Alex de Vries-Gao, nhà nghiên cứu về tính bền vững của công nghệ mới tại Đại học Vrije Amsterdam và là người sáng lập Digiconomist, một nền tảng chuyên phân tích những hệ quả ngoài ý muốn của xu hướng số, cho biết. “Vậy mà giờ đây, chúng ta đang nói về một công nghệ có khả năng chiếm gần một nửa lượng điện tiêu thụ của các trung tâm dữ liệu trên toàn thế giới.”

Đặt một câu hỏi cho một mô hình ngôn ngữ lớn (LLM) tiêu tốn lượng điện gấp khoảng 10 lần so với một lượt tìm kiếm Google thông thường. (Ảnh: Qi Yang/Getty Images)

Đặt một câu hỏi cho một mô hình ngôn ngữ lớn (LLM) tiêu tốn lượng điện gấp khoảng 10 lần so với một lượt tìm kiếm Google thông thường. (Ảnh: Qi Yang/Getty Images)

Điều gì khiến các chatbot AI tiêu tốn nhiều năng lượng đến vậy? Câu trả lời nằm ở quy mô khổng lồ của chúng. Theo giáo sư khoa học máy tính Mosharaf Chowdhury tại Đại học Michigan, có hai giai đoạn đặc biệt “ngốn điện” nhất: Quá trình huấn luyện và quá trình suy luận (inference).

“Tuy nhiên, vấn đề là các mô hình ngày nay đã quá lớn, đến mức không thể chạy trên một bộ xử lý đồ họa GPU duy nhất, thậm chí không thể gói gọn trong một máy chủ,” giáo sư Mosharaf Chowdhury giải thích với Live Science.

Để hình dung quy mô, nghiên cứu năm 2023 của de Vries-Gao cho thấy một máy chủ Nvidia DGX A100 có thể tiêu thụ tới 6,5 kilowatt điện. Việc huấn luyện một LLM thường đòi hỏi nhiều máy chủ, mỗi máy gồm trung bình 8 GPU, hoạt động liên tục trong nhiều tuần hoặc thậm chí nhiều tháng. Tổng cộng, lượng điện tiêu thụ là cực lớn: Chỉ riêng quá trình huấn luyện GPT-4 của OpenAI đã ngốn tới 50 gigawatt-giờ, tương đương lượng điện đủ để cung cấp cho toàn bộ San Francisco trong ba ngày.

Quá trình huấn luyện GPT-4 của OpenAI đủ để cung cấp điện cho toàn bộ San Francisco trong ba ngày. (Ảnh: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Quá trình huấn luyện GPT-4 của OpenAI đủ để cung cấp điện cho toàn bộ San Francisco trong ba ngày. (Ảnh: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Quá trình suy luận (inference) cũng tiêu hao năng lượng không kém. Đây là lúc chatbot AI sử dụng kiến thức đã học để đưa ra câu trả lời cho người dùng. Mặc dù suy luận đòi hỏi ít tài nguyên tính toán hơn so với giai đoạn huấn luyện, nhưng nó vẫn cực kỳ tốn điện vì số lượng yêu cầu gửi đến chatbot quá lớn.

Tính đến tháng 7/2025, OpenAI cho biết người dùng ChatGPT gửi hơn 2,5 tỷ yêu cầu mỗi ngày. Để đáp ứng tức thời, hệ thống phải huy động nhiều máy chủ hoạt động cùng lúc. Và đó mới chỉ tính riêng ChatGPT, chưa kể các nền tảng khác cũng đang phổ biến rộng rãi, như Gemini của Google, vốn được kỳ vọng sớm trở thành lựa chọn mặc định khi người dùng truy cập Google Search.

“Ngay cả trong giai đoạn suy luận, bạn cũng không thể thực sự tiết kiệm năng lượng,” Chowdhury nhận định. “Vấn đề không phải là dữ liệu khổng lồ nữa. Mô hình thì đã rất lớn, nhưng cái lớn hơn là số lượng người dùng.”

Các nhà nghiên cứu như Chowdhury và de Vries-Gao hiện đang tìm cách đo lường chính xác hơn mức tiêu thụ điện năng, từ đó tìm giải pháp cắt giảm. Chẳng hạn, Chowdhury duy trì một bảng xếp hạng có tên ML Energy Leaderboard, theo dõi mức tiêu thụ năng lượng trong suy luận của các mô hình mã nguồn mở.

Tuy nhiên, phần lớn số liệu liên quan đến các nền tảng AI tạo sinh thương mại vẫn là “bí mật”. Các tập đoàn lớn như Google, Microsoft hay Meta hoặc giữ kín, hoặc chỉ công bố thống kê rất mơ hồ, khó phản ánh đúng tác động môi trường. Điều này khiến việc xác định AI thực sự tiêu thụ bao nhiêu điện, nhu cầu sẽ ra sao trong những năm tới, và liệu thế giới có đáp ứng nổi hay không trở nên rất khó khăn.

Dù vậy, người dùng hoàn toàn có thể tạo áp lực đòi hỏi sự minh bạch. Điều này không chỉ giúp mỗi cá nhân đưa ra lựa chọn có trách nhiệm hơn khi sử dụng AI, mà còn góp phần thúc đẩy các chính sách buộc doanh nghiệp phải chịu trách nhiệm.

“Một trong những vấn đề cốt lõi của các ứng dụng số là tác động môi trường luôn bị che giấu,” nhà nghiên cứu de Vries-Gao nhấn mạnh. “Giờ quả bóng nằm trong tay các nhà làm chính sách: họ phải khuyến khích công khai dữ liệu để người dùng có thể hành động.”

Đọc thêm
AI giúp Mỹ và Trung Quốc xích lại gần nhau?

AI giúp Mỹ và Trung Quốc xích lại gần nhau? 0

Mã độc tống tiền đầu tiên do AI điều khiển PromptLock thách thức an ninh mạng

Mã độc tống tiền đầu tiên do AI điều khiển PromptLock thách thức an ninh mạng 0

Thế giới có bộ trưởng AI đầu tiên, mục tiêu xóa bỏ tham nhũng

Thế giới có bộ trưởng AI đầu tiên, mục tiêu xóa bỏ tham nhũng 0

Phổ cập AI theo mô hình 'Bình dân học vụ'

Phổ cập AI theo mô hình 'Bình dân học vụ' 0

Các tin khác

NCB chuyển mình mạnh mẽ, vững bước tuổi 30

Sau ba thập kỷ nhiều thách thức và đổi thay, Ngân hàng TMCP Quốc Dân (NCB) đã vươn lên khẳng định dấu ấn của một tổ chức tài chính năng động, sáng tạo với hành trình chuyển mình ấn tượng để mở ra một chương mới tươi sáng đầy hứa hẹn.

FPT mua 10% cổ phần công ty công nghệ Malaysia

FPT công bố đầu tư chiến lược vào công ty Daythree Digital Berhad (Daythree), nhà cung cấp dịch vụ vận hành quy trình kinh doanh và quản lý hệ thống hàng đầu tại Malaysia.

Ăn rau diếp cá có tác dụng gì?

Rau diếp cá không chỉ là nguyên liệu cho những món ăn dân dã mà còn là vị thuốc có giá trị trong cả y học cổ truyền lẫn hiện đại.

Trưởng phòng tổ chức một trường đại học ở TPHCM bị tố đạo văn

Bà T.Q.H, Trưởng phòng Tổ chức cán bộ Trường ĐH Quốc tế (ĐHQG TPHCM), bị tố dùng nội dung từ 2 luận văn thạc sĩ và 1 khóa luận cử nhân (năm 2020) của sinh viên Trường ĐH Quốc tế trong bài báo khoa học, dùng tính điểm cho luận án tiến sĩ tại Trường ĐH Kinh tế TPHCM.