Theo BGR, báo cáo từ công ty an ninh mạng FireTail cho biết lỗ hổng trên Gemini liên quan đến kỹ thuật được gọi là tấn công ASCII smuggling (dạng lừa đảo ký tự Unicode). Bằng cách lợi dụng cách AI (trí tuệ nhân tạo) xử lý văn bản đặc biệt, kẻ tấn công có thể giấu các lệnh độc hại trong những ký tự mà mắt thường không thể nhìn thấy, nhưng mô hình ngôn ngữ lớn (LLM) lại có thể đọc và thực thi.

Khi lệnh độc ẩn trong văn bản, Gemini có thể trở thành công cụ của tin tặc
ẢNH: MASHABLE
Vấn đề này từng được các nhà nghiên cứu mô tả như một hình thức tấn công "ẩn trong nội dung hợp lệ", tương tự việc trước đây họ từng chiếm quyền điều khiển một hệ thống nhà thông minh thông qua lời mời Google Calendar.
FireTail cho biết Gemini bị ảnh hưởng nặng nhất trong các chatbot AI được thử nghiệm, trong khi DeepSeek và Grok cũng dễ bị khai thác ở mức độ thấp hơn. Ngược lại, ChatGPT, Copilot và Claude tỏ ra miễn nhiễm trước kiểu tấn công này, dù bản thân chúng vẫn còn những vấn đề bảo mật khác cần giải quyết.
Google phủ nhận đây là lỗi bảo mật Gemini
Khi nhận được báo cáo, Google phản hồi rằng đây không phải lỗi bảo mật thực sự, mà chỉ có thể dẫn đến các hành vi lừa đảo xã hội. Theo hãng, việc khắc phục vấn đề này "không giúp người dùng giảm nguy cơ bị tấn công".
Chatbot AI Gemini gọi người là 'vết nhơ vũ trụ', tung đe dọa ác ý
Tuy nhiên, giới chuyên gia cho rằng việc Google hoàn toàn bác bỏ mối lo ngại này là điều đáng quan ngại, đặc biệt trong bối cảnh Gemini đang được tích hợp sâu vào hệ sinh thái của Google, từ Gmail, Docs cho đến Android. Nếu bị khai thác, lỗ hổng có thể cho phép kẻ xấu ẩn lệnh trong email hoặc trang web, khiến AI phản hồi hoặc mở liên kết độc hại thay cho người dùng mà họ không hay biết.
Các nhà nghiên cứu cảnh báo, nếu không được xử lý sớm, kiểu tấn công này có thể bị lợi dụng để thao túng kết quả do Gemini sinh ra, chẳng hạn chèn các đường dẫn độc hại hoặc nội dung bị kiểm duyệt.
Khi mà Google giữ lập trường không khẩn cấp, các công ty khác như Amazon lại coi đây là mối đe dọa nghiêm trọng. Trong một bài viết gần đây, đội ngũ kỹ sư bảo mật của Amazon nhấn mạnh rằng "các lớp bảo vệ cần được xem là thành phần cốt lõi của ứng dụng AI tạo sinh chứ không phải bổ sung tùy chọn".