Giữa tháng 11, OpenAI sa thải CEO Sam Altman, được cho là sau khi các nhà nghiên cứu của công ty gửi email tới hội đồng quản trị, cảnh báo dự án nội bộ Q* (Q-Star) đã đạt bước đột phá để tiến tới trí tuệ nhân tạo tổng quát AGI.
Tuy nhiên, Brad Smith nhận định AGI sẽ không xuất hiện trong vòng một năm. Để AI có nhận thức như con người cần nhiều năm, nếu không muốn nói là nhiều thập kỷ. Tuy vậy, ông nhấn mạnh đã đến lúc tập trung vào sự an toàn khi phát triển công nghệ AI.
Ngoài cảnh báo về rủi ro của dự án Q*, một số nguồn tin cho rằng quyết định sa thải Sam Altman còn liên quan đến những lo ngại CEO của OpenAI đang muốn thương mại hóa quá nhanh những công nghệ mới của công ty, trước khi đánh giá đầy đủ những nguy cơ của chúng.
Brad Smith phủ nhận, nói sự xáo trộn nhân sự của OpenAI tuần trước là do bất đồng quan điểm giữa các thành viên hội đồng quản trị, không phải do lo ngại về an toàn AI. Tuy nhiên, ông nhấn mạnh AI cũng phải có chốt an toàn, như chốt an toàn trong thang máy, cầu giao diện, phanh khẩn cấp trên xe buýt và luôn nằm trong tầm kiểm soát của con người.
Trước đó, Emmett Shear, CEO tạm quyền trong ba ngày của OpenAI, cũng cho biết trước khi nhận chức, ông đã tìm hiểu lý do đằng sau cuộc lật đổ. "Hội đồng quản trị không loại bỏ Sam vì sự bất đồng về an toàn AI. Lý do của họ hoàn toàn khác", ông viết.
Còn trong thông báo chính thức về vụ sa thải hôm 17/11, OpenAI cho biết Sam Altman "không nhất quán và thẳng thắn trong giao tiếp với hội đồng quản trị". Đến ngày 21/11, Altman lại tiếp quản vị trí CEO OpenAI cùng hội đồng quản trị mới.