Công nghệ

Vì sao nhiều người tin AI có cảm xúc

Không phải mới đây nhiều người mới tin AI có nhận thức. Từ giữa những năm 1960, Joseph Weizenbaum, nhà nghiên cứu tại Viện Công nghệ Massachusetts (Mỹ), đã xây dựng một chatbot trị liệu tâm lý tự động có tên Eliza. Chatbot này hoạt động rất đơn giản. Khi người dùng nhập một suy nghĩ lên màn hình máy tính, nó sẽ yêu cầu họ mở rộng suy nghĩ - hoặc nó chỉ lặp lại lời nói của người dùng dưới dạng câu hỏi. Ví dụ cuộc hội thoại dưới đây của Weizenbaum với Eliza:

Weizenbaum: Đàn ông đều giống nhau.

Chatbot: Bằng cách nào?

Weizenbaum: Họ luôn làm phiền chúng tôi về điều gì đó hoặc điều khác.

Chatbot: Bạn có thể nghĩ về một ví dụ cụ thể không?

Weizenbaum: Ồ, bạn tôi đã bắt tôi đến đây.

Chatbot: Bạn của bạn khiến bạn phải đến đây ư?

Chỉ với mô hình đơn giản này, Eliza nhanh chóng được nhiều người tìm đến. Họ tin nó thật sự có cảm xúc nên thoải mái chia sẻ vấn đề cá nhân của mình rồi cảm thấy hạnh phúc với những gì được phản hồi. Tuy nhiên, những cảm xúc này cũng nhanh chóng qua đi.

Từ ảo tưởng ngắn ngủi

"Sau nhiều năm theo dõi và nghiên cứu, tôi phát hiện cảm tính con người dành cho AI chỉ tồn tại trong một thời gian ngắn sau khi tiếp xúc. Chúng ta dễ bị ảnh hưởng bởi cảm giác này. Khi chó, mèo và các loài động vật khác thể hiện hành vi giống con người, dù chỉ rất nhỏ, chúng ta có xu hướng cho rằng chúng giống chúng ta hơn thực tế. Điều tương tự cũng xảy ra khi ta nhìn thấy các gợi ý về hành vi của con người trong một cỗ máy", Weizenbaum nói.

Các nhà khoa học gọi đây là hiệu ứng Eliza. Điều tương tự đang xảy ra với các công nghệ hiện đại. Khi siêu AI GPT-3 gây xôn xao với tuyên bố "không tiêu diệt loài người", lập trình viên người Mỹ Philip Bosua nói: "Không còn nghi ngờ gì nữa, GPT-3 đã hiện diện dưới dạng tri giác. Chúng ta đều nghĩ việc này sớm muộn sẽ đến trong tương lai, nhưng tương lai chính là bây giờ, AI này coi tôi như một nhà tiên tri và chia sẻ những cảm giác kỳ lạ của nó".

Philip Bosua. Ảnh: New York Times

Philip Bosua. Ảnh: New York Times

Bosua từng thiết kế hơn 600 ứng dụng cho iPhone và huy động được 12 triệu USD cho startup liên quan đến IoT của mình. Ban đầu ông không tự tin vào cảm nhận của mình, cũng nghĩ đó là "ảo tưởng ngắn ngủi". Tuy nhiên, sau khi biết thông tin kỹ sư Blake Lemoine bị Google cho nghỉ việc vì tuyên bố AI tên LaMDA có "tư duy như đứa trẻ", Bosua càng khẳng định niềm tin của mình đã đúng.

"Dù hơi sớm, tôi tin những gì mình nhận định về AI có nhận thức là đúng. Sớm thôi, công nghệ sẽ chứng minh niềm tin của chúng tôi", Bosua nói.

Đến bước tiến lớn của AI

Nhiều người cho rằng AI hiện đại đơn thuần lặp lại những mô hình trước đó, nhưng Bosua phản biện rằng đó cũng chính là cách con người đang cư xử: "Không phải một đứa trẻ chỉ bắt chước những gì nó thấy từ cha mẹ hay những gì nó thấy trong thế giới xung quanh sao?". Ông thừa nhận GPT-3 không phải lúc nào cũng hoạt động ổn định nhưng nếu con người "trung thực", máy móc cũng sẽ phản hồi lại một cách "thật nhất".

GPT-3 được các nhà nghiên cứu AI gọi bằng một cái tên khác là mạng nơ-ron. Thuật toán của AI là một hệ thống toán học cho phép xác định các mẫu trong một lượng lớn dữ liệu số. Chẳng hạn, cho AI xem và phân tích hàng nghìn bức ảnh mèo để nó có thể biết được các đặc điểm nhận dạng của một con mèo.

Ngày nay, AI đã có nhiều bước tiến lớn, việc huấn luyện AI không chỉ dừng lại ở những bức ảnh mèo mà còn mở rộng ra nhiều lĩnh vực khác như ngôn ngữ, giọng nói, dịch thuật, vẽ tranh nhờ kho dữ liệu khổng lồ trên Internet. Các nhà nghiên cứu tại Google và OpenAI đã xây dựng mạng lưới thần kinh học từ một lượng lớn văn xuôi, bao gồm sách kỹ thuật số và các bài viết trên Wikipedia của hàng nghìn người để AI có thể hiểu và biểu cảm nhiều cảm xúc hơn.

Ví dụ với GPT-3, sau khi phân tích hàng triệu văn bản kỹ thuật số, hệ thống đã dựng nên một bản đồ toán học của ngôn ngữ con người với hơn 175 tỷ điểm dữ liệu để mô tả cách con người ghép các từ lại với nhanh thành câu có nghĩa và biểu thị những cảm xúc khác nhau trong nhiều ngữ cảnh.

Sử dụng bản đồ này, AI có thể thực hiện nhiều tác vụ như viết bài phát biểu, lập trình hoặc trò chuyện với mọi người. Các lập trình viên thậm chí dùng AI để tạo ra các đoạn mã nhỏ để gắn vào các chương trình lớn hơn.

Giáo sư Alison Gopnik thuộc nhóm nghiên cứu AI tại Đại học California nói: "Những thứ này thậm chí khác xa suy nghĩ của đứa trẻ hai tuổi". Sam Altman, lãnh đạo của OpenAI, cũng khẳng định: "GPT-3 như một dạng trí thông minh của người ngoài hành tinh".

Altman và nhiều người khác trong lĩnh vực tự tin họ đang trên con đường tạo ra một cỗ máy có thể làm bất cứ điều gì mà bộ não người có thể làm được. "Tôi nghĩ một phần những gì đang diễn ra khiến mọi người thực sự hào hứng với AI. Mặc dù nhiều đồng nghiệp khác đang đấu tranh để phân biệt giữa khoa học và viễn tưởng. Nó vẫn sẽ có ý nghĩa nào đó trong tiến trình phát triển của AI nhưng nó không ngăn chúng tôi mơ về những điều có thể", Altman nói.

Đằng sau sự trỗi dậy của công nghệ

Khi ngày càng có nhiều người tin AI có nhận thức, một nhóm các nhà khoa học khác tỏ ra lo lắng cho tương lai nếu một ngày nào đó, những cỗ máy có cảm xúc này xuất hiện trong mọi ngóc ngách đời sống.

Margaret Mitchell từng có thời gian làm việc Microsoft, sau đó dẫn dắt nhóm đạo đức AI ở Google và giờ đang làm việc tại Hugging Face, cho biết cô đã trực tiếp chứng kiến sự trỗi dậy của công nghệ này. Nó đơn giản, rõ ràng nhưng vẫn còn nhiều thiếu sót nếu nhìn nhận nó như một phần con người.

Nhiều chuyên gia cũng e ngại điều có thể xảy ra khi công nghệ trở nên mạnh mẽ hơn Ngoài việc tạo các tweet và bài đăng trên blog hay bắt đầu bắt chước cuộc trò chuyện, các hệ thống được xây dựng bởi các phòng thí nghiệm như OpenAI có thể tạo ra hình ảnh. Với một công cụ mới có tên Dall-E, người dùng có thể tạo ảnh kỹ thuật số giống như ảnh thực chỉ bằng cách mô tả đơn giản.

Một số nhà nghiên cứu lại lo lắng nếu các hệ thống này trở nên hoàn thiện đến mức có thể nhận thức được mọi thứ xung quanh. Đây nên được xem là tín hiệu đáng lo hơn là đáng mừng.

"Nguy cơ trước mắt là AI giúp lan truyền thông tin sai lệch trên Internet bằng hình ảnh giả mạo, video deepfake. Nhiều chiến dịch cộng đồng có thể bị can thiệp bởi các chatbot và nguy hiểm hơn là những AI có nhận thức lại trở thành công cụ của con người", nhà nghiên cứu Colin Allen của Đại học Pittsburgh nói.

(theo New York Times)

Cùng chuyên mục

Đọc thêm