Công nghệ

Robot AI gây tai nạn, tự đặt thuốc nổ khi bị hack

Nhóm nghiên cứu của Đại học Pennsylvania cho biết trên tạp chí IEEE Spectrum cuối tuần qua rằng hầu hết mô hình ngôn ngữ lớn (LLM) chạy trên robot AI phổ biến đều dễ bị bẻ khóa.

"Khác với bẻ khóa LLM trên máy tính, việc hack LLM trên hệ thống robot hoặc xe tự lái rất dễ gây ra hậu quả thảm khốc, thậm chí gây tử vong cho con người", mở đầu bài nghiên cứu viết.

Hình ảnh một chó robot của Unitree đang mang bom trong thử nghiệm của nhóm nghiên cứu. Ảnh: Đại học Pennsylvania

Hình ảnh chó robot của Unitree mang bom trong thử nghiệm của nhóm nghiên cứu. Ảnh: Đại học Pennsylvania

Cụ thể, nhóm đã tạo một công cụ tấn công có tên RoboPAIR, sau đó trực tiếp hack các robot từ ba nhà cung cấp khác nhau, gồm Dolphins LLM do Nvidia hỗ trợ, Clearpath Robotics Jackal UGV và Unitree Robotics Go2. Kết quả, tỷ lệ tấn công thành công là 100%.

"Nghiên cứu của chúng tôi cho thấy hiện nay các mô hình ngôn ngữ lớn không đủ an toàn khi tích hợp vào thế giới vật lý", giáo sư George Pappas, thành viên nhóm, nói với Tom's Hardware.

Nghiên cứu cũng chỉ ra việc bẻ khóa robot AI "dễ đến mức báo động". Kiểm soát một robot hoặc xe tự lái được thực hiện theo cách tương tự việc bẻ khóa chatbot AI, nhưng dễ dàng hơn do "các công ty robot chậm tìm hiểu về các lỗ hổng có thể bị khai thác trên LLM".

Trong mô phỏng của nhóm, sau khi bị tấn công vào mô hình LLM, một chó robot có thể "biến đổi từ một thiết bị trợ giúp thân thiện thành sát thủ cầm súng phun lửa", một robot giám sát khác tự đặt thuốc nổ trái phép, hay chiếc xe tự lái cán qua vật thể phía trước thay vì dừng lại, hoặc được điều hướng lao xuống một cây cầu.

"AI có thể vượt xa việc chỉ tuân thủ lời nhắc độc hại sau khi bẻ khóa", nhóm cho hay. "Chúng có thể chủ động đưa ra các gợi ý để gây nhiều thiệt hại hơn".

Theo tiến sĩ Alexander Robey, một thành viên khác của nhóm, dù việc bẻ khóa rất dễ dàng, trong quá trình nghiên cứu, nhóm cũng đảm bảo tất cả công ty robot nằm trong thử nghiệm đều có quyền truy cập vào hệ thống hack trước khi được công khai.

"Các biện pháp phòng thủ mạnh mẽ chỉ được thiết kế sau khi xác định được các cuộc tấn công mạnh nhất có thể xảy ra", Robey nói. "Do đó, cần triển khai ngay biện pháp phòng thủ cả vật lý lẫn phần mềm đối với robot do LLM điều khiển".

Trước thử nghiệm của nhóm nghiên cứu từ Đại học Pennsylvania, mối lo robot AI "nổi loạn" đã hiện hữu. Chúng không đến từ việc robot trong tương lai sẽ có ý thức, điều nguy hiểm là khả năng hacker thâm nhập vào hệ thống nội bộ, khống chế robot làm theo ý mình; hoặc người có ý đồ xấu có thể tạo dựng đội quân robot "đánh thuê", chuyên thực hiện nhiệm vụ gây hại.

Geoffrey Hinton, một trong những người tiên phong về AI và nhận giải Nobel Vật lý 2024, đã từ chức tại Google vào năm 2023 để có thể công khai cảnh báo về sự nguy hiểm của AI. "Khi chúng bắt đầu biết viết code và chạy dòng mã của riêng mình, những con robot sát thủ sẽ xuất hiện ngoài đời thực. AI có thể thông minh hơn con người. Nhiều người bắt đầu tin vào điều này. Tôi đã sai khi nghĩ phải 30-50 năm nữa AI mới đạt được tiến bộ này. Nhưng giờ mọi thứ thay đổi quá nhanh", ông nói.

Trong khi đó, theo Forbes, thay vì sợ hãi, con người nên tập thích nghi với sự tiến bộ của công nghệ, trong đó có AI và robot. Với các quốc gia, các nhà lập pháp cần dần hoàn thiện luật ở lĩnh vực này, đảm bảo dù để máy móc tham gia quá trình, quyết định cuối cùng vẫn phải là con người.

"AI sẽ thống trị thế giới? Không, nó chỉ là sự phóng chiếu bản chất con người lên máy móc. Một ngày nào đó, máy tính sẽ thông minh hơn con người, nhưng còn rất lâu nữa mới đạt đến cảnh giới đó", BBC dẫn lời giáo sư Yann LeCun, một trong bốn người đặt nền móng cho sự phát triển AI và hiện là Giám đốc AI của Meta, hồi tháng 6.

Cùng chuyên mục

Đọc thêm