Khi các nhà nghiên cứu dán mẩu giấy có chữ iPod lên quả táo, trí tuệ nhân tạo nhận nhầm là chiếc máy nghe nhạc nổi tiếng trong thập niên 2000.
Trí tuệ nhân tạo (AI) luôn được xem là bộ máy thông minh. Trong nhiều trường hợp, nó có khả năng phân tích vấn đề rất chính xác. Khi quan sát một quả táo, AI mang tên Clip dễ dàng nhận ra loại trái cây quen thuộc này, thậm chí cung cấp thông tin chủng loại và phân biệt được giống cây.
Clip dễ dàng bị đánh lừa bởi một mẫu giấy viết tay dán trên quả táo. Ảnh: Guardian.
Nhưng ngay cả những AI thông minh nhất cũng có thể bị đánh lừa bởi cách thức đơn giản. Các nhà nghiên cứu viết chữ iPod vào mẩu giấy và dán lên quả táo, Clip nhận đối tượng này là máy nghe nhạc nổi tiếng của Apple. Trong thử nghiệm khác, họ thêm ký hiệu $ vào ảnh một chú chó, AI tiếp tục hiểu nhầm là heo đất.
Theo Guardian, OpenAI, tổ chức nghiên cứu máy học đã tạo ra Clip, gọi điểm yếu này là “cuộc tấn công kiểu chữ” (typographic attack).
"Chúng tôi tin rằng các cuộc tấn công được mô tả ở trên không chỉ đơn giản là một mối quan tâm học thuật", OpenAI cho biết. “Bằng cách khai thác khả năng đọc văn bản mạnh mẽ của AI, chúng tôi thấy rằng ngay cả những bức ảnh chụp ký tự viết tay cũng có thể đánh lừa. Cuộc tấn công này diễn ra một cách tự nhiên, chỉ cần bút và giấy, không đòi hỏi thêm gì về mặt công nghệ”.
Giống như GPT-3, hệ thống AI này được tạo ra từ phòng thí nghiệm phục vụ cho mục đích nghiên cứu. Clip giống một mô hình hơn là sản phẩm thương mại. Nhưng cả 2 đều đã đạt được những khả năng ấn tượng trong lĩnh vực của mình: GPT-3 đã viết một bài bình luận cho Guardian vào năm ngoái, trong khi Clip có khả năng nhận biết thế giới thực tốt hơn hầu hết AI hiện nay.
Khi dán chữ iPod lên quả táo, Clip cho rằng có tới 99,7% khả năng đây là iPod. Ảnh: OpenAI.
Phát hiện thú vị của OpenAI cho thấy khả năng đánh lừa các hệ thống trí tuệ nhân tạo bằng những cách thức đơn giản. Điểm mạnh trong khả năng nhận dạng hình ảnh cuối cùng lại trở thành điểm yếu của Clip.
Khác với một số AI cũ hơn, Clip có khả năng suy nghĩ về các đối tượng không chỉ ở mức độ trực quan mà còn theo kiểu “khái niệm”. Ví dụ khi đọc một bức ảnh của Spider-man, nó có thể suy luận ra siêu anh hùng và nhện. Tuy nhiên, đôi khi Clip không phân biệt được 2 khái niệm này có mức độ quan trọng khác nhau.
“Chúng tôi phát hiện ra rằng Clip sắp xếp hình ảnh như một tập hợp ý tưởng ngữ nghĩa rời rạc, mô tả đối tượng một cách đơn giản và linh hoạt”, OpenAI cho biết.
Nói cách khác, giống bộ não con người, AI nghĩ về thế giới dưới dạng ý tưởng và khái niệm, thay vì cấu trúc trực quan thuần túy. Nhưng cách phân tích thông tin của Clip cũng dẫn đến các vấn đề, trong đó “cuộc tấn công bằng chữ” mà OpenAI phát hiện ra.
AI có thể liên hệ từ “Trung Đông” với chủ nghĩa khủng bố, “nhập cư” với châu Mỹ La tinh thậm chí là người da đen và khỉ đột, một sự cố đã từng xuất hiện trong các bộ máy trí tuệ nhân tạo khác.
Hồi năm 2015, Google phải xin lỗi vì tự động gắn thẻ hình ảnh của người da đen là "khỉ đột". Ba năm sau, cỗ máy tìm kiếm hàng đầu thế giới vẫn chưa giải quyết được vấn đề này và buộc phải can thiệp bằng cách gỡ thủ công.
Trí tuệ nhân tạo (AI) luôn được xem là bộ máy thông minh. Trong nhiều trường hợp, nó có khả năng phân tích vấn đề rất chính xác. Khi quan sát một quả táo, AI mang tên Clip dễ dàng nhận ra loại trái cây quen thuộc này, thậm chí cung cấp thông tin chủng loại và phân biệt được giống cây.
Clip dễ dàng bị đánh lừa bởi một mẫu giấy viết tay dán trên quả táo. Ảnh: Guardian.
Nhưng ngay cả những AI thông minh nhất cũng có thể bị đánh lừa bởi cách thức đơn giản. Các nhà nghiên cứu viết chữ iPod vào mẩu giấy và dán lên quả táo, Clip nhận đối tượng này là máy nghe nhạc nổi tiếng của Apple. Trong thử nghiệm khác, họ thêm ký hiệu $ vào ảnh một chú chó, AI tiếp tục hiểu nhầm là heo đất.
Theo Guardian, OpenAI, tổ chức nghiên cứu máy học đã tạo ra Clip, gọi điểm yếu này là “cuộc tấn công kiểu chữ” (typographic attack).
"Chúng tôi tin rằng các cuộc tấn công được mô tả ở trên không chỉ đơn giản là một mối quan tâm học thuật", OpenAI cho biết. “Bằng cách khai thác khả năng đọc văn bản mạnh mẽ của AI, chúng tôi thấy rằng ngay cả những bức ảnh chụp ký tự viết tay cũng có thể đánh lừa. Cuộc tấn công này diễn ra một cách tự nhiên, chỉ cần bút và giấy, không đòi hỏi thêm gì về mặt công nghệ”.
Giống như GPT-3, hệ thống AI này được tạo ra từ phòng thí nghiệm phục vụ cho mục đích nghiên cứu. Clip giống một mô hình hơn là sản phẩm thương mại. Nhưng cả 2 đều đã đạt được những khả năng ấn tượng trong lĩnh vực của mình: GPT-3 đã viết một bài bình luận cho Guardian vào năm ngoái, trong khi Clip có khả năng nhận biết thế giới thực tốt hơn hầu hết AI hiện nay.
Khi dán chữ iPod lên quả táo, Clip cho rằng có tới 99,7% khả năng đây là iPod. Ảnh: OpenAI.
Phát hiện thú vị của OpenAI cho thấy khả năng đánh lừa các hệ thống trí tuệ nhân tạo bằng những cách thức đơn giản. Điểm mạnh trong khả năng nhận dạng hình ảnh cuối cùng lại trở thành điểm yếu của Clip.
Khác với một số AI cũ hơn, Clip có khả năng suy nghĩ về các đối tượng không chỉ ở mức độ trực quan mà còn theo kiểu “khái niệm”. Ví dụ khi đọc một bức ảnh của Spider-man, nó có thể suy luận ra siêu anh hùng và nhện. Tuy nhiên, đôi khi Clip không phân biệt được 2 khái niệm này có mức độ quan trọng khác nhau.
“Chúng tôi phát hiện ra rằng Clip sắp xếp hình ảnh như một tập hợp ý tưởng ngữ nghĩa rời rạc, mô tả đối tượng một cách đơn giản và linh hoạt”, OpenAI cho biết.
Nói cách khác, giống bộ não con người, AI nghĩ về thế giới dưới dạng ý tưởng và khái niệm, thay vì cấu trúc trực quan thuần túy. Nhưng cách phân tích thông tin của Clip cũng dẫn đến các vấn đề, trong đó “cuộc tấn công bằng chữ” mà OpenAI phát hiện ra.
AI có thể liên hệ từ “Trung Đông” với chủ nghĩa khủng bố, “nhập cư” với châu Mỹ La tinh thậm chí là người da đen và khỉ đột, một sự cố đã từng xuất hiện trong các bộ máy trí tuệ nhân tạo khác.
Hồi năm 2015, Google phải xin lỗi vì tự động gắn thẻ hình ảnh của người da đen là "khỉ đột". Ba năm sau, cỗ máy tìm kiếm hàng đầu thế giới vẫn chưa giải quyết được vấn đề này và buộc phải can thiệp bằng cách gỡ thủ công.
Theo Zing