"Hội đồng quản trị có thể sa thải tôi", Sam Altman nói với Bloomberg vào tháng 6 năm nay khi nhắc đến bộ máy vận hành khác thường của OpenAI. Năm tháng sau, điều ông nói đã xảy ra vào ngày 17/11. Cấu trúc công ty cho phép sa thải bất cứ ai, kể cả CEO và chủ tịch, nếu có hành động "làm tổn hại lợi ích nhân loại" theo quan điểm của ban quản trị. Đây được xem là điểm độc đáo, giúp OpenAI là tổ chức phi lợi nhuận trong việc nghiên cứu AI, nhưng vẫn có thể huy động vốn đầu tư nhằm xây dựng những cỗ máy tốn kém và thu hút nhân tài.
"Nhưng hóa ra, họ vẫn không thể sa thải anh ta. Thật tệ", Toby Ord, nhà nghiên cứu tại Đại học Oxford và là người có tiếng nói trong số những chuyên gia cảnh báo AI có thể gây ra rủi ro hiện hữu cho nhân loại, nhận xét.
Từ bức thư gây lo ngại
Lý do hội đồng quản trị OpenAI phế truất Altman vẫn là điều bí ẩn. Một số nguồn tin nói Altman đã dành quá nhiều thời gian cho các dự án phụ, quá phụ thuộc vào Microsoft, đồng thời ban quản trị muốn ngăn ông thương mại hóa mô hình AI tổng quát (AGI) - hệ thống siêu trí tuệ có thể gây hại cho con người.
Trong khi đó, Reuters dẫn nguồn nội bộ cho biết ngày 23/11, CTO OpenAI Mira Murati nói với nhân viên của bà rằng một lá thư mật do các nhà nghiên cứu trong OpenAI gửi đến hội đồng quản trị, cảnh báo về sự nguy hiểm của dự án Q* (Q-Star) đã dẫn đến quyết định sa thải đột ngột.
Nội dung chi tiết trong thư chưa được tiết lộ, nhưng giới chuyên gia tin OpenAI đã đạt bước đột phá lớn, tiến tới khả năng tạo ra AGI - mô hình AI "siêu trí tuệ" có thể vượt qua con người trong hầu hết các nhiệm vụ có giá trị kinh tế.
Một nguồn tin nội bộ sau đó nói với Reuters rằng Q* vẫn "ở cấp độ học sinh tiểu học", nhưng tương lai hoàn toàn rộng mở khi khả năng tự học của nó đang được cải tiến với tốc độ "hàng giờ". Một nguồn khác cho biết thuật toán trên Q* có thể "vượt qua môn toán cấp phổ thông" và các nhà nghiên cứu OpenAI rất lạc quan về thành công của dự án.
Hiện các mô hình AI đã rất giỏi viết và dịch ngôn ngữ, nhưng cũng đưa ra nhiều câu trả lời khác nhau cho cùng một câu hỏi. Tùy vào nguồn dữ liệu được đào tạo, nó có thể bịa ra sự thật và không phải lúc nào câu trả lời cũng đúng. Nhưng với năng lực hiểu biết toán học cao cấp, AI có thể tính toán và đưa ra một câu trả lời đúng và duy nhất, tức có khả năng suy luận tốt hơn, gần giống trí thông minh của con người.
Các nhà khoa học tin tư duy toán học của AGI có thể được áp dụng cho nghiên cứu mới. Không giống như một chiếc máy tính có thể giải một số phép tính hạn chế, AGI có thể khái quát hóa, học hỏi và thậm chí "hiểu" được nó đang làm gì.
Bức thư mật đề cập đến "mối nguy hiểm và sức mạnh tiềm tàng" mà Q* có thể gây ra. Trước đó, OpenAI được cho là cũng đã gắn cờ một công trình nghiên cứu khác do nhóm "AI Scientist" tạo ra. Sự tồn tại của nhóm được một số nguồn nội bộ xác nhận, với nhiệm vụ khám phá cách tối ưu hóa mô hình AI hiện có để cải thiện khả năng suy luận và cuối cùng là thực hiện các công việc khoa học.
Những ngày cuối trước khi bị lật đổ, Sam Altman cũng đề cập việc OpenAI đã đạt được tiến bộ lớn. "Trong bốn lần tạo nên lịch sử của OpenAI, lần gần nhất chỉ cách đây vài tuần. Tôi đã có mặt trong phòng. Chúng tôi gần như đã đẩy lùi bức màn tối phía trước và mở ra biên giới khám phá mới. Làm được điều đó là vinh dự nghề nghiệp của một đời", Altman nói tại Diễn đàn Hợp tác Kinh tế châu Á - Thái Bình Dương (APEC) ngày 16/11 ở San Francisco.
Một ngày sau, ông bị hội đồng quản trị OpenAI sa thải qua Google Meet.
Một OpenAI mới nguy hiểm hơn
Sự trở lại OpenAI của Altman hiện gây ra những phản ứng trái chiều. Việc nắm trong tay công cụ như Q* và không còn bị hội đồng quản trị cũ ngăn cản có thể thúc đẩy vị CEO này thương mại hóa các sản phẩm nhanh hơn.
Altman nhiều lần nói đến nguy cơ AI gây hại cho thế giới, nhưng đồng thời cũng lại huy động hàng tỷ USD phát triển mô hình siêu thông minh. Điều này làm cho những nhân vật quyền lực ở Thung lũng Silicon khó chịu.
"Sự nổi lên của Altman với tư cách là gương mặt đại diện cho 'chủ nghĩa AI gây tận thế' khiến nhiều người lo ngại về những rủi ro, nhất là khi AI trở nên mạnh mẽ, dễ tiếp cận hơn", Wired bình luận.
Theo giáo sư Rayid Ghani của Đại học Carnegie Mellon, Altman một mặt nói kiểu "hãy điều chỉnh chúng tôi, nếu không chúng tôi sẽ hủy diệt thế giới", nhưng mặt khác lại nỗ lực biến siêu AI trở nên mạnh hơn nữa. "Tôi nghĩ điều đó làm chúng ta hoàn toàn xao lãng trước những rủi ro thực sự đang xảy ra như sự dịch chuyển công việc, phân biệt đối xử, tính minh bạch và trách nhiệm giải trình", Ghani nói với Wired.
OpenAI cho biết hội đồng quản trị mới hiện vẫn "tạm thời" và dự kiến bổ sung một số người khác vào danh sách. Dù Altman nói "sẽ vẫn giữ OpenAI hoạt động như trước đây", một số chuyên gia nghi ngại khi không còn người cản đường, ông sẽ xích lại gần Microsoft hơn hoặc tự tiến hành các dự án theo hướng thương mại hóa thay vì phi lợi nhuận.
"Bây giờ, mọi thứ không còn là cuộc đua tranh giữa các phòng thí nghiệm - nơi những người thành lập chúng thực sự quan tâm đến ý nghĩa, đến những thứ họ có thể làm", nhà nghiên cứu Toby Ord của Đại học Oxford nhận định. "Tương lai gần sẽ là sự chạy đua giữa một số công ty AI lớn nhất thế giới. Ở khía cạnh này, tôi nghĩ mọi thứ trở nên khá nguy hiểm".