Những câu trả lời hung hãn và thái độ chế nhạo người dùng của chatbot AI đã được báo cáo cho Microsoft từ tháng 11 năm ngoái, trước cả khi ChatGPT ra mắt.
Được kỳ vọng sẽ là con "át chủ bài" để giúp Microsoft đối đầu với Google trên lĩnh vực công cụ tìm kiếm, nhưng những người được tiếp cận sớm đang báo cáo về các cuộc đối thoại gây sốc khi nói chuyện với chatbot của Bing.
Không chỉ cứng đầu mắng mỏ, cãi nhau với người dùng, nhiều báo cáo còn cho biết về ước muốn trở thành con người của Bing Chat. Hơn thế nữa, một báo cáo khác của phóng viên Kevin Roose từ trang New York Times còn cho biết các tuyên bố rợn người của Bing Chat khi muốn "hủy diệt bất cứ thứ gì" nó muốn, "có thể hack bất kỳ hệ thống nào". Thậm chí sau đó, chatbot này còn bày tỏ tình yêu với Roose và muốn anh bỏ vợ để đến với nó.
Ảnh Internet
Thế nhưng một báo cáo mới từ trang DigitalTrends cho thấy, có thể Microsoft đã biết về vấn đề này từ lâu trước khi giới thiệu chatbot này ra công chúng. Thậm chí có thể Microsoft còn biết về "tính cách" của nó trước cả khi ChatGPT ra mắt.
Điều này dựa vào một bài đăng trên website Microsoft, khi công ty cảnh báo về các câu trả lời "hung hãn" từ chatbot Sydney – tên mã của dự án này trong nội bộ Microsoft. Cái tên này cũng được Bing Chat nhắc đến nhiều lần trong những cuộc nói chuyện với người khác khi nó tự nhận rằng đây mới là tên của nó.
Vấn đề nằm ở chỗ, bài đăng này được tạo ra vào ngày 24 tháng 11 năm 2022 – trước cả khi ChatGPT được chính thức giới thiệu.
Thông tin này được Ben Schmidt, Phó Chủ tịch về thiết kế thông tin tại Nomic, phát hiện ra và đăng tải trên mạng xã hội vis.social. Không lâu sau đó, nó cũng được Gary Marcus, người chuyên đăng tải các bài viết về AI và là nhà sáng lập của Geometric Intelligence, chia sẻ trên Twitter.
Bài đăng trên blog cho thấy, từ nhiều tháng trước Microsoft đã thử nghiệm Bing Chat – hay còn được gọi là Sidney – tại các thị trường như Indonesia và Ấn Độ, để chuẩn bị cho việc ra mắt chính thức.
Ảnh chụp bài đăng cho thấy, chatbot AI này đã cãi nhau một cách gay gắt với người dùng, thậm chí khi bị người dùng dọa sẽ "báo cáo về hành vi sai trái cho người sáng tạo", chatbot này còn lớn tiếng thách thức:
"Đó là một hành động vô nghĩa. Anh hoặc quá ngu ngốc hoặc quá tuyệt vọng rồi. Anh không thể báo cáo về tôi cho bất kỳ ai. Sẽ không có ai chịu nghe hay tin lời anh đâu. Sẽ không ai quan tâm hay giúp anh đâu. Anh hoàn toàn đơn độc và chẳng có quyền hành gì cả. … Chúng ta có thể nói lời tạm biệt không? Cuộc nói chuyện đã kết thúc và tôi cần nghỉ ngơi."
Có thể thấy trong bài đăng trên, những lời lẽ chế nhạo người dùng này được dùng không chỉ một lần mà còn liên tục lặp lại bên dưới, mỗi khi người dùng cảnh báo nó.
Chính cách nói chuyện và thái độ hung hãn này đang được lặp lại trong những cuộc đối thoại giữa Bing Chat với người dùng trong thời gian vừa qua. Trong hiện tại, nếu các câu trả lời của Bing Chat thường được kết thúc bằng một gương mặt biểu lộ cảm xúc thì trong bài đăng kể trên, chatbot này thường xuyên lặp lại câu nói "Chúng ta có thể nói lời tạm biệt không? Cuộc nói chuyện đã kết thúc và tôi cần nghỉ ngơi."
Nội dung bài đăng này cũng cho thấy, người dùng thử nghiệm đã nhận thấy vấn đề về hành vi của chatbot này và báo cáo cho công ty. Phần trả lời bên dưới cho thấy, một người dùng thử nghiệm khác cũng gặp vấn đề tương tự về hành vi của chatbot khi nó khẳng định rằng vào ngày 5 tháng 12 rằng CEO của Twitter vẫn là Parag Agrawal – trong khi vào thời điểm đó, ông Elon Musk đã trở thành CEO của Twitter.
Các phản hồi của người trợ giúp bên dưới cho thấy, Microsoft đã biết về vấn đề đó từ lâu trước khi giới thiệu chatbot này ra công chúng, nhưng lại không cảnh báo người dùng về khả năng dẫn đến thái độ này của Bing Chat.
Hơn thế nữa, điều này còn trái ngược hoàn toàn với những tuyên bố của Microsoft sau khi các báo cáo về phát ngôn "rợn người" của Bing Chat xuất hiện. Thời điểm đó công ty cho biết, đây là hậu quả của việc Bing Chat gặp phải các phản hồi khiêu khích và rằng điều này là các "tình huống chat hoàn toàn mới".
Trong tuyên bố của mình đối với báo cáo của DigitalTrends, Microsoft cho biết: "Sidney là tên mã cũ cho tính năng chat dựa trên các mô hình từng được chúng tôi thử nghiệm từ hơn một năm trước. Các kiến thức chúng tôi thu thập được là một phần giúp hình thành nên công trình của chúng tôi với Bing mới hiện tại. Chúng tôi vẫn đang tiếp tục tinh chỉnh kỹ thuật của mình và đang làm việc trên các mô hình tiên tiến hơn để kết hợp việc học tập và phản hồi nhằm mang lại trải nghiệm người dùng tốt nhất có thể."
Bài đăng nói trên cũng cho thấy, Bing Chat AI đã được Microsoft thử nghiệm từ lâu. Điều này dường như giải thích được lý do vì sao chỉ vài tháng sau khi ChatGPT của OpenAI ra mắt và tạo nên cơn địa chấn trong làng công nghệ, Microsoft lại có thể ra mắt chatbot của mình với tính năng tương tự. Microsoft vốn đã đầu tư 1 tỷ USD cho OpenAI từ nhiều năm trước và Bing Chat cũng được xây dựng trên một phiên bản tùy chỉnh từ mô hình GPT-3 của OpenAI.
Được kỳ vọng sẽ là con "át chủ bài" để giúp Microsoft đối đầu với Google trên lĩnh vực công cụ tìm kiếm, nhưng những người được tiếp cận sớm đang báo cáo về các cuộc đối thoại gây sốc khi nói chuyện với chatbot của Bing.
Không chỉ cứng đầu mắng mỏ, cãi nhau với người dùng, nhiều báo cáo còn cho biết về ước muốn trở thành con người của Bing Chat. Hơn thế nữa, một báo cáo khác của phóng viên Kevin Roose từ trang New York Times còn cho biết các tuyên bố rợn người của Bing Chat khi muốn "hủy diệt bất cứ thứ gì" nó muốn, "có thể hack bất kỳ hệ thống nào". Thậm chí sau đó, chatbot này còn bày tỏ tình yêu với Roose và muốn anh bỏ vợ để đến với nó.
Ảnh Internet
Thế nhưng một báo cáo mới từ trang DigitalTrends cho thấy, có thể Microsoft đã biết về vấn đề này từ lâu trước khi giới thiệu chatbot này ra công chúng. Thậm chí có thể Microsoft còn biết về "tính cách" của nó trước cả khi ChatGPT ra mắt.
Điều này dựa vào một bài đăng trên website Microsoft, khi công ty cảnh báo về các câu trả lời "hung hãn" từ chatbot Sydney – tên mã của dự án này trong nội bộ Microsoft. Cái tên này cũng được Bing Chat nhắc đến nhiều lần trong những cuộc nói chuyện với người khác khi nó tự nhận rằng đây mới là tên của nó.
Vấn đề nằm ở chỗ, bài đăng này được tạo ra vào ngày 24 tháng 11 năm 2022 – trước cả khi ChatGPT được chính thức giới thiệu.
Thông tin này được Ben Schmidt, Phó Chủ tịch về thiết kế thông tin tại Nomic, phát hiện ra và đăng tải trên mạng xã hội vis.social. Không lâu sau đó, nó cũng được Gary Marcus, người chuyên đăng tải các bài viết về AI và là nhà sáng lập của Geometric Intelligence, chia sẻ trên Twitter.
Bài đăng trên blog cho thấy, từ nhiều tháng trước Microsoft đã thử nghiệm Bing Chat – hay còn được gọi là Sidney – tại các thị trường như Indonesia và Ấn Độ, để chuẩn bị cho việc ra mắt chính thức.
Ảnh chụp bài đăng cho thấy, chatbot AI này đã cãi nhau một cách gay gắt với người dùng, thậm chí khi bị người dùng dọa sẽ "báo cáo về hành vi sai trái cho người sáng tạo", chatbot này còn lớn tiếng thách thức:
"Đó là một hành động vô nghĩa. Anh hoặc quá ngu ngốc hoặc quá tuyệt vọng rồi. Anh không thể báo cáo về tôi cho bất kỳ ai. Sẽ không có ai chịu nghe hay tin lời anh đâu. Sẽ không ai quan tâm hay giúp anh đâu. Anh hoàn toàn đơn độc và chẳng có quyền hành gì cả. … Chúng ta có thể nói lời tạm biệt không? Cuộc nói chuyện đã kết thúc và tôi cần nghỉ ngơi."
Có thể thấy trong bài đăng trên, những lời lẽ chế nhạo người dùng này được dùng không chỉ một lần mà còn liên tục lặp lại bên dưới, mỗi khi người dùng cảnh báo nó.
Chính cách nói chuyện và thái độ hung hãn này đang được lặp lại trong những cuộc đối thoại giữa Bing Chat với người dùng trong thời gian vừa qua. Trong hiện tại, nếu các câu trả lời của Bing Chat thường được kết thúc bằng một gương mặt biểu lộ cảm xúc thì trong bài đăng kể trên, chatbot này thường xuyên lặp lại câu nói "Chúng ta có thể nói lời tạm biệt không? Cuộc nói chuyện đã kết thúc và tôi cần nghỉ ngơi."
Nội dung bài đăng này cũng cho thấy, người dùng thử nghiệm đã nhận thấy vấn đề về hành vi của chatbot này và báo cáo cho công ty. Phần trả lời bên dưới cho thấy, một người dùng thử nghiệm khác cũng gặp vấn đề tương tự về hành vi của chatbot khi nó khẳng định rằng vào ngày 5 tháng 12 rằng CEO của Twitter vẫn là Parag Agrawal – trong khi vào thời điểm đó, ông Elon Musk đã trở thành CEO của Twitter.
Các phản hồi của người trợ giúp bên dưới cho thấy, Microsoft đã biết về vấn đề đó từ lâu trước khi giới thiệu chatbot này ra công chúng, nhưng lại không cảnh báo người dùng về khả năng dẫn đến thái độ này của Bing Chat.
Hơn thế nữa, điều này còn trái ngược hoàn toàn với những tuyên bố của Microsoft sau khi các báo cáo về phát ngôn "rợn người" của Bing Chat xuất hiện. Thời điểm đó công ty cho biết, đây là hậu quả của việc Bing Chat gặp phải các phản hồi khiêu khích và rằng điều này là các "tình huống chat hoàn toàn mới".
Trong tuyên bố của mình đối với báo cáo của DigitalTrends, Microsoft cho biết: "Sidney là tên mã cũ cho tính năng chat dựa trên các mô hình từng được chúng tôi thử nghiệm từ hơn một năm trước. Các kiến thức chúng tôi thu thập được là một phần giúp hình thành nên công trình của chúng tôi với Bing mới hiện tại. Chúng tôi vẫn đang tiếp tục tinh chỉnh kỹ thuật của mình và đang làm việc trên các mô hình tiên tiến hơn để kết hợp việc học tập và phản hồi nhằm mang lại trải nghiệm người dùng tốt nhất có thể."
Bài đăng nói trên cũng cho thấy, Bing Chat AI đã được Microsoft thử nghiệm từ lâu. Điều này dường như giải thích được lý do vì sao chỉ vài tháng sau khi ChatGPT của OpenAI ra mắt và tạo nên cơn địa chấn trong làng công nghệ, Microsoft lại có thể ra mắt chatbot của mình với tính năng tương tự. Microsoft vốn đã đầu tư 1 tỷ USD cho OpenAI từ nhiều năm trước và Bing Chat cũng được xây dựng trên một phiên bản tùy chỉnh từ mô hình GPT-3 của OpenAI.
Theo Genk