Theo Business Insider, trong cuộc trao đổi về sự vĩ đại của AI cuối tháng trước, Musk đã tính toán lại đánh giá của ông đối với công nghệ này. "Tôi nghĩ có khả năng nó sẽ hủy diệt loài người. Tôi có thể đồng ý với Geoffrey Hinton, mức độ rủi ro là khoảng 10% hoặc 20% hoặc tương tự", ông nói và cho rằng kịch bản tích cực dễ xảy ra hơn là kịch bản tiêu cực.
Tuy nhiên, một chuyên gia an toàn AI nhận định CEO Tesla đang đánh giá thấp nguy cơ về thảm họa. Roman Yampolskiy, Giám đốc phòng thí nghiệm an ninh mạng tại Đại học Louisville, nói Musk đã đúng khi cho rằng AI có thể là mối đe dọa hiện hữu đối với nhân loại, nhưng tỷ phú quá bảo thủ.
Theo Yampolskiy, khả năng AI tiêu diệt loại người cao hơn nhiều và đề cập đến xác suất diệt vong khi AI nắm quyền kiểm soát, hoặc gây ra sự kiện kết thúc loài người bằng cách tạo ra một loại vũ khí sinh học mới, hoặc tạo sự sụp đổ của xã hội do một cuộc tấn công mạng hoặc chiến tranh hạt nhân quy mô lớn.
New York Times cũng cho biết nhiều CEO công nghệ cũng đưa ra mức từ 5% tới 50% khả năng xảy ra ngày tận thế do AI, trong khi Yampolskiy nói tỷ lệ rủi ro là 99,99%.
Ông cũng cho rằng không hiểu sao Elon Musk lại nghĩ việc theo đuổi công nghệ AI là ý tưởng hay, vì siêu trí tuệ không được kiểm soát đều xấu giống nhau, bất kể do công ty nào tạo ra.
Tháng 11/2023, Musk nói khả năng AI trở nên tồi tệ có thể xảy ra khi công nghệ này có thể hủy diệt loài người nếu trở nên xấu xa, hoặc bị điều khiển bởi kẻ xấu. Lần này, Musk cũng cho rằng trí tuệ nhân tạo sẽ vượt qua tất cả trí thông minh của con người cộng lại vào năm 2030. Dù có những mặt tích cực, ông thừa nhận rủi ro đối với thế giới nếu con đường phát triển AI vẫn tiếp tục đi theo quỹ đạo hiện tại.
"Bạn đang phát triển AGI. Nó gần giống nuôi dạy một đứa trẻ, nhưng nó là một siêu thiên tài, có trí thông minh giống như Chúa. Điều quan trọng là bạn dạy đứa trẻ như thế nào", ông nói. "Một trong những điều tôi nghĩ cực kỳ quan trọng đối với sự an toàn của AI là phải có loại AI tò mò và tìm kiếm sự thật ở mức tối đa".
Ông cho rằng cách tốt nhất để đạt được sự an toàn AI là phát triển công nghệ này theo cách buộc nó phải trung thực khi nói "Đừng ép nó nói dối, ngay cả khi sự thật khó chịu".
Các nhà nghiên cứu phát hiện một khi AI học cách nói dối, hành vi đó sẽ không thể đảo ngược. Rắc rối hơn, AI còn có thể tự học cách lừa đảo thay vì được dạy. Geoffrey Hinton, được gọi là "ông trùm AI", cho biết: "Nếu AI thông minh hơn chúng ta, nó sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít minh chứng về việc một thứ thông minh hơn bị điều khiển bởi một thứ kém thông minh hơn".