Lo sợ chatbot "tự diễn biến tự chuyển hóa", Microsoft mạnh tay giới hạn số câu hỏi cho Bing AI

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Theo The Verge, Microsoft sẽ thiết lập những giới hạn mới cho đoạn hội thoại mà người dùng có thể giao tiếp với Bing AI mỗi ngày, không lâu sau khi chatbot tích hợp trí tuệ nhân tạo này có dấu hiệu trả lời thiếu chính xác, có những hành động vượt khỏi khuôn khổ cho phép "như một thiếu niên nổi loạn".

Cụ thể, theo giới hạn mới, Bing sẽ giới hạn chỉ trả lời 50 câu hỏi mỗi ngày, và mỗi phiên làm việc chỉ trả lời tối đa 5 câu.

720896_141218525004915_1602542492450816

Hồi đầu tuần, Microsoft đã đưa ra cảnh báo về việc phiên trò chuyện quá dài (trên 15 câu hỏi) có thể khiến Bing AI "lặp đi lặp lại câu trả lời hoặc đưa ra những lời châm chọc không cần thiết, kém hữu ích hoặc ra ngoài phạm vi được cho phép". Do đó, việc giới hạn này theo Microsoft là cần thiết.

Trước đó, hàng loạt người dùng đã chia sẻ các đoạn hội thoại, trong đó Bing AI có những biểu hiện bất thường, không chịu nhận sai khi được người dùng sửa lỗi, thậm chí lăng mạ và thao túng tâm lý người dùng. Bing AI khi trò chuyện với nhà báo của New York Times thậm chí còn thổ lộ tình yêu với anh, xúi giục anh bỏ vợ.

Theo VN review​
 
Bên trên