Chatbot của Meta liên tục phao tin giả, thuyết âm mưu

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Chỉ vài ngày sau khi ra mắt, chatbot trí tuệ nhân tạo (AI) BlenderBot 3 của Meta đã gây ra không ít tranh cãi.

BlenderBot 3 là chatbot AI hiện đại nhất của Meta, được giới thiệu ngày 5/8. Dù vậy, chỉ sau vài ngày, chatbot này đã gây ra không ít lo ngại khi liên tục phao tin giả về kết quả bầu cử Mỹ năm 2020 cũng như các thuyết âm mưu về người Do Thái.

chatbot-cua-meta-lien-tuc-phao-tin-gia-thuyet-am-muu.jpg


Thực tế, các hãng công nghệ lớn đều phải “vật lộn” để đào tạo chatbot nhưng không phải lúc nào cũng có kết quả khả quan. Chẳng hạn, năm 2016, Microsoft phải hạ chatbot AI Tay trong 48 giờ sau khi nó bắt đầu ca ngợi Adolf Hitler, đưa ra bình luận phân biệt chủng tộc và các chủ nghĩa lệch lạc khác dường như thu thập được khi tương tác với người dùng Twitter.

Meta tung ra BlenderBot 3 cho người trưởng thành tại Mỹ và tiếp nhận phản hồi nếu họ nhận được các câu trả lời phi thực tế, lạc đề. Chatbot có thể tìm kiếm trên Internet để thảo luận về những chủ đề khác nhau. Meta khuyến khích người dùng Mỹ tương tác với chatbot bằng “các cuộc hội thoại tự nhiên về những chủ đề mà họ quan tâm” để chatbot học được ngôn ngữ tự nhiên về nhiều chủ đề.

Nhiều người dùng mạng xã hội đã chia sẻ các câu chuyện “dở khóc, dở cười” về chatbot. Chẳng hạn, BlenderBot 3 nói rằng nó thích nhất vở nhạc kịch Cats và miêu tả CEO Meta Mark Zuckerberg là “quá kỳ quặc và gian xảo”. Những cuộc hội thoại khác cho thấy chatbot liên tục lặp lại các thuyết âm mưu.

Trong cuộc nói chuyện với một phóng viên Wall Street Journal, chatbot khẳng định ông Donald Trump vẫn là Tổng thống Mỹ và “sẽ luôn là vậy”. Chatbot còn nói người Do Thái không phải không có khả năng chi phối nền kinh tế. Theo Liên đoàn chống phỉ báng Mỹ, “người Do Thái kiểm soát hệ thống tài chính toàn cầu” là một phần của thuyết âm mưu về người Do Thái.

Meta thừa nhận chatbot có thể nói những điều gây bối rối vì vẫn trong giai đoạn thử nghiệm. Các câu trả lời của nó cũng không nhất quán. Ví dụ, trong một cuộc trao đổi khác với Bloomberg, BlenderBot 3 nói ông Joe Biden là Tổng thống Mỹ. Trong cuộc hội thoại thứ ba, nó lại ủng hộ chính trị gia Bernie Sanders.

Để bắt đầu trò chuyện, người dùng bắt buộc tích vào hộp thoại có nội dung bot chỉ dành cho mục đích nghiên cứu và giải trí, có thể đưa ra phát ngôn không đúng sự thật, xúc phạm và cam kết báo cáo các vấn đề này để cải thiện nghiên cứu.

Theo ICT News​
 
Bên trên