Chúng ta cứ mải vui đùa với ChatGPT mà không hề nhận ra "sự thật rùng mình"

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Chúng ta vẫn nghĩ ChatGPT là công cụ vô tri phục vụ cho mục đích giải trí. Nhưng nhiều người đã cảnh giác về việc trí tuệ nhân tạo này đã có ý thức của con người, với những suy nghĩ, toan tính không ai biết.

ChatGPT liệu có ý thức như con người?

ChatGPT và các chatbot mới rất giỏi trong việc bắt chước tương tác của con người đến nỗi chúng đã khiến một số người đặt câu hỏi: Có khả năng nào chúng có ý thức hay không?

Câu trả lời - ít nhất ở thời điểm hiện tại - là không. Gần như tất cả những người làm việc trong lĩnh vực công nghệ nhân tạo đều chắc chắn rằng ChatGPT không tồn tại theo cách mà mọi người đang hiểu.

Nhưng câu hỏi chưa kết thúc ở đó. Cái gọi là ý thức trong thời đại trí tuệ nhân tạo vẫn là điều gây tranh luận.

"Những mạng lưới thần kinh sâu, những ma trận gồm hàng triệu con số này, làm thế nào để bạn dựa vào đó để định nghĩa ý thức là gì. Nó giống như kiểu terra incognita", Nick Bostrom, giám đốc sáng lập Viện Tương lai Nhân loại của Đại học Oxford, sử dụng thuật ngữ Latinh cho khái niệm "thứ chúng ta chưa biết tới".

avatar1677893682026-16778936821691978027887.jpg

Việc tạo ra sự sống nhân tạo là chủ đề của khoa học viễn tưởng trong nhiều thập kỷ, trong khi các nhà triết học cũng dành từng ấy thời gian để xem xét bản chất của ý thức.

Một số người thậm chí còn lập luận rằng một số chương trình AI hiện nay nên được coi là có tri giác (một kỹ sư của Google đã bị sa thải vì đưa ra tuyên bố như vậy).

Ilya Sutskever, người đồng sáng lập OpenAI, công ty đứng sau ChatGPT, đã suy đoán rằng các thuật toán đằng sau những sáng tạo của công ty mình có thể "chút nào đó có ý thức".

NBC News đã thảo luận với các nhà nghiên cứu khái niệm ý thức về việc liệu một chatbot tiên tiến có thể sở hữu một mức độ nhận thức nào đó hay không. Và nếu vậy, loài người có nghĩa vụ đạo đức nào đối với một tạo vật như vậy?

"Đây là một lĩnh vực nghiên cứu rất mới", Bostrom nói. "Có cả tấn công việc chưa được hoàn thành".

Theo tư duy triết học đơn thuần, các chuyên gia cho biết vấn đề thực sự nằm ở cách bạn định nghĩa các thuật ngữ và câu hỏi.

Chúng ta cứ mải vui đùa với ChatGPT mà không hề nhận ra "sự thật rùng mình" - Ảnh 2.

ChatGPT, cùng với các chương trình tương tự như trợ lý tìm kiếm của Microsoft, đã được sử dụng để hỗ trợ các tác vụ như lập trình và viết văn bản đơn giản như thông cáo báo chí, nhờ tính dễ sử dụng và trình độ vận dụng tiếng Anh và các ngôn ngữ một cách thuyết phục.

Chúng thường được gọi là "mô hình đa ngôn ngữ", vì sự lưu loát phần lớn đến từ việc được đào tạo trên kho văn bản khổng lồ được khai thác từ internet. Mặc dù lời lẽ rất thuyết phục, nhưng chúng không được thiết kế với độ chính xác là ưu tiên hàng đầu và thường hay sai khi trình bày một định nghĩa nào đó.

Điều gì xảy ra khi ChatGPT có ý thức?

Người phát ngôn của ChatGPT và Microsoft đều nói với NBC News rằng họ tuân theo các nguyên tắc đạo đức nghiêm ngặt, nhưng không cung cấp chi tiết cụ thể về những lo ngại rằng sản phẩm của họ có thể phát triển ý thức. Người phát ngôn của Microsoft nhấn mạnh chatbot Bing "không thể tự suy nghĩ hoặc học hỏi."

Trong một bài đăng dài trên trang web của mình, Stephen Wolfram, một nhà khoa học máy tính, đã lưu ý rằng ChatGPT và các mô hình đa ngôn ngữ khác sử dụng toán học để tìm ra xác suất sử dụng từ ngữ trong ngữ cảnh cụ thể, dựa trên thư viện văn bản mà nó được đào tạo.

Nhiều triết gia đồng ý rằng để một thứ gì đó có ý thức, nó phải có một trải nghiệm chủ quan.

David Chalmers, đồng giám đốc của Trung tâm Tâm trí, Não bộ và Ý thức của Đại học New York, cho rằng mặc dù ChatGPT rõ ràng không sở hữu nhiều yếu tố ý thức, như cảm giác và cơ quan độc lập, nhưng chúng là chương trình phức tạp.

"Những thứ này giống như những con tắc kè hoa. Chúng có thể áp dụng bất kỳ tính cách mới vào bất kỳ lúc nào. Không rõ là chúng có những mục tiêu và niềm tin cơ bản thúc đẩy hành động đó hay không", Chalmers nói với NBC News. Nhưng theo thời gian, những thứ này có thể phát triển ý thức rõ ràng hơn về quyền tự quyết.

Chúng ta cứ mải vui đùa với ChatGPT mà không hề nhận ra "sự thật rùng mình" - Ảnh 3.

Một vấn đề mà các nhà triết học chỉ ra là người dùng có thể hỏi một chatbot phức tạp xem nó có trải nghiệm tự thân hay không, nhưng chúng ta không thể tin tưởng thứ này sẽ đưa ra câu trả lời đáng tin cậy.

Susan Schneider, giám đốc sáng lập của Trung tâm Tư duy Tương lai của Đại học Florida Atlantic, cho biết: "Chúng là những kẻ nói dối xuất sắc".

"Chúng ngày càng có khả năng tương tác liền mạch hơn với con người. Những thứ này có thể nói với bạn rằng chúng cảm thấy bản thân giống như con người. Và rồi 10 phút sau, trong một cuộc trò chuyện khác biệt, chúng sẽ nói điều ngược lại".

Schneider lưu ý các chatbot hiện tại sử dụng chữ viết hiện có của con người để mô tả trạng thái bên trong của chúng. Vì vậy, một cách để kiểm tra xem chương trình có ý thức hay không là không cấp cho nó quyền truy cập vào tài liệu đó và xem liệu nó có thể tự mô tả trải nghiệm chủ quan hay không.

Ý tưởng rằng con người có thể tạo ra một loại sinh vật có ý thức đặt ra câu hỏi về nghĩa vụ đạo đức.

Nếu loài người sau này chia sẻ trái đất với một ý thức tổng hợp, thì điều đó có thể buộc các xã hội phải đánh giá lại một cách triệt để đối với một số thành tố.

Hầu hết các xã hội tự do đồng ý rằng mọi người nên có quyền tự do sinh sản và có quyền bỏ phiếu cho lãnh đạo chính trị đại diện. Nhưng điều đó trở nên gai góc với trí tuệ máy tính.

"Nếu bạn là một AI có thể tạo ra một triệu bản sao của chính mình trong vòng 20 phút, và sau đó mỗi bản sao đều có một phiếu bầu, thì điều gì sẽ xảy ra", Bostrom nói.

Theo Genk​
 
Bên trên