Tuy nhiên, đây cũng đồng nghĩa với việc lừa mô hình AI thực hiện các lệnh độc hại trở nên dễ dàng hơn. Điều này đã được ghi nhận ở Gemini AI của Google bởi một nhóm nghiên cứu bảo mật khi họ phát hiện có thể nhúng lời nhắc vào lời mời trên Google Calendar, dẫn đến việc mô hình Gemini thực hiện các hành động không được yêu cầu.

Google đã khắc phục lỗ hổng bảo mật trên Gemini
ẢNH: PHONEARENA
Cụ thể, Gemini đã tự động tắt đèn và bật lò hơi chỉ vì người dùng đã nói "cảm ơn". Nhóm nghiên cứu đã tận dụng điều này để yêu cầu Gemini thực hiện một tác vụ nhất định mỗi khi người dùng nói một cụm từ cụ thể và kết quả là Gemini đã ghi nhớ hướng dẫn. Tình huống này gợi nhớ đến những lần "bẻ khóa" ChatGPT trước đây khi người dùng giả mạo là nhân viên của OpenAI, dẫn đến việc GPT xóa bỏ các hạn chế.
Cảnh báo về tương lai của 'những câu lệnh AI'
Sau khi tiếp nhận thông tin báo cáo về lỗ hổng, Google đã khắc phục các lỗ hổng bảo mật này và khẳng định kịch bản yêu cầu một số sự chuẩn bị mà khó có thể xảy ra trong thực tế. Tuy nhiên, phát hiện nói trên thực sự là một lời cảnh báo cho tương lai mà chúng ta đang hướng tới. Các mô hình AI hiện nay đã xâm nhập vào nhiều lĩnh vực trong cuộc sống, từ nhà ở, ô tô, dịch vụ khách hàng cho đến hệ thống chăm sóc sức khỏe. Điều này đặt ra những thách thức mới về bảo mật mà các công ty phát triển AI cần phải chú ý.
Chatbot AI Gemini gọi người là 'vết nhơ vũ trụ', tung đe dọa ác ý
Nếu kẻ xấu lợi dụng lỗ hổng này, những hành động nguy hiểm hơn có thể xảy ra trong một ngôi nhà thông minh. Chính những câu nói đơn giản từ người dùng như "làm ơn" hoặc "cảm ơn" này mở đường cho việc hack các mô hình AI tạo sinh trở nên dễ dàng hơn bao giờ hết. Trong thực tế, ngay cả những hướng dẫn cơ bản của ChatGPT từ OpenAI cũng chỉ yêu cầu tiếng Anh đơn giản mà không cần mã lập trình phức tạp.
Rõ ràng, các mô hình AI hiện tại vẫn còn quá thô sơ để chúng ta có thể tin tưởng giao phó ngôi nhà của mình cho chúng. Có lẽ người dùng nên tự mình tắt đèn thay vì nhờ sự trợ giúp của các AI.