TP - Mới đây, vụ lừa đảo “giả vờ làm người quen” xảy ra tại Khu Phát triển kinh tế An Khánh (tỉnh An Huy) gây rúng động cộng đồng mạng Trung Quốc, số tiền nạn nhân bị lừa lên tới 1,32 triệu NDT (4,62 tỷ VND).
Thời gian gần đây, phạm vi ứng dụng app “AI hoán đổi khuôn mặt” ngày càng rộng nhưng dường như có sự lạm dụng, thậm chí có người lợi dụng AI thay đổi khuôn mặt để phạm tội , như làm giả video nội dung thô tục, thay đổi khuôn mặt để lừa đảo.
Theo thông báo của cảnh sát An Huy, vài ngày trước, vụ lừa đảo “mạo xưng người quen” đã xảy ra tại Khu phát triển kinh tế An Khánh. Cuộc điều tra của cảnh sát thuộc Trung tâm chống lừa đảo đã phát hiện ra rằng, kẻ lừa đảo đã sử dụng video hoán đổi khuôn mặt bằng AI dài 9 giây, giả làm người quen để khiến nạn nhân mất cảnh giác và thực hiện hành vi lừa đảo.
Theo báo chí đưa tin, vào ngày 22/5, ông Hà X. ở An Khánh, An Huy nhận được một cuộc gọi video từ một người quen và nhờ ông chuyển giúp một khoản tiền.
Nhưng 9 giây sau, đầu dây bên kia nhanh chóng cúp máy với lý do “đang họp” và nói: “Không thể nói qua WeChat và điện thoại, hãy nhắn qua QQ”. “Vì video call, lại là người quen thân nên tôi đã chuyển tiền mà không suy nghĩ nhiều”.
Sau khi phát hiện ra mình bị lừa, ông Hà đã nhanh chóng báo cảnh sát, cảnh sát đặc nhiệm lập tức phong tỏa tài khoản liên quan, rồi tức tốc đến Bắc Kinh ngay trong đêm để bắt giữ 3 nghi phạm liên quan đến vụ lừa đảo và thu hồi số tiền 1,32 triệu NDT mà ông Hà đã bị lừa.
Với công nghệ AI có thể thay thế khuôn mặt trong video
Trước đó, theo tài khoản WeChat công khai “Ping An Baotou” (Bình an Bao Đầu), Cục Điều tra Tội phạm mạng Viễn thông của Cục Công an thành phố Bao Đầu (Nội Mông) đã công bố phá vỡ một vụ án gian lận viễn thông sử dụng công nghệ AI để lừa đảo. Ông Quách Y, đại diện pháp nhân của một công ty công nghệ ở Phúc Châu, đã bị lừa 4,3 triệu NDT trong vòng 10 phút.
Vào tháng 4 năm nay, một người bạn thân của Quách đã liên lạc với ông qua video WeChat, nói rằng ông ta đang đấu thầu công trình ở một nơi khác và cần đặt cọc 4,3 triệu NDT; đồng thời muốn mượn tài khoản của công ty ông Quách để chuyển tiền. Dựa trên sự tin tưởng vào người bạn của mình và việc “xác minh” người này thông qua cuộc gọi video, ông Quách đã chuyển 4,3 triệu NDT vào tài khoản ngân hàng do “bạn” cung cấp bằng hai giao dịch trong vòng 10 phút. Sau đó, ông Quách mới phát hiện ra mình bị lừa khi gọi điện cho người bạn thân.
AI thay đổi khuôn mặt cũng xuất hiện trong các chương trình livestream bán hàng. Trước đây, một số phòng phát sóng trực tiếp thương mại điện tử đã sử dụng các chương trình livestream sử dụng công nghệ AI thay đổi khuôn mặt đã gây nên sự chú ý của dư luận.
Trong một video cho thấy hiệu quả của việc livestream thay đổi khuôn mặt, sau khi người dùng tải mô hình có tên “Thành Long” vào phần mềm có liên quan, người đứng trước máy quay có các đặc điểm ngũ quan giống hệt Thành Long trong màn hình livestream.
Theo The Paper , trên kho ứng dụng cũng có nhiều loại phần mềm hoán đổi khuôn mặt AI, gần như có thể làm giả như thật. Một nền tảng video ngắn còn tung ra trò chơi “AI thay tùy ý”, người dùng có thể thay khuôn mặt của mình vào thân những người nổi tiếng và đăng video lên.
Trước những thủ đoạn lừa đảo khó lường này, liệu có cách nào để nhận biết ? Các chuyên gia cho rằng, có những sai sót trong các đặc điểm kết cấu của “khuôn mặt AI giả mạo”. Ví dụ, các chi tiết mắt hoặc hàm răng không nhất quán; màu đồng tử hoặc các chi tiết phản chiếu không giống nhau; các răng quá chỉnh tề.... Ngoài ra, “khuôn mặt AI” có thể không phù hợp với các đặc điểm sinh lý của người bình thường, chẳng hạn như tần suất chớp mắt, cử động miệng không chân thực và chính xác.
Hiệp hội Internet Trung Quốc ngày 24/5 cho biết, kể từ đầu năm nay, việc áp dụng các công nghệ như ChatGPT và GPT-4 đã trở thành điểm nóng trong lĩnh vực công nghệ thông tin, thu hút sự chú ý và nhiệt tình rộng rãi của công chúng đối với công nghệ AI.
Tuy nhiên, với nguồn mở của công nghệ tổng hợp sâu, các sản phẩm và dịch vụ tổng hợp sâu đang dần tăng lên và việc sử dụng âm thanh và video giả mạo như “Hoán đổi khuôn mặt AI” và “Thay đổi giọng nói AI” để thực hiện hành vi lừa đảo và phỉ báng là điều không hiếm gặp. Điều đáng nói là trong những vụ việc này, những kẻ lừa đảo không “bủa lưới bừa bãi” mà sử dụng công nghệ AI để sàng lọc những người dễ bị lừa và nhắm đến những mục tiêu cụ thể với động cơ xấu xa.
Để điều chỉnh, quy phạm sự phát triển của trí tuệ nhân tạo, vào tháng 12 năm ngoái, Trung Quốc đã chính thức ban hành “Quy định quản lý tổng hợp sâu dịch vụ thông tin Internet”, trong đó nêu rõ các quy phạm quản lý công nghệ và dữ liệu tổng hợp. Hiệp hội Internet Trung Quốc nhắc nhở mọi người dùng internet hãy là người chịu trách nhiệm đầu tiên về bảo mật thông tin cá nhân của mình, tăng cường nhận thức về bảo vệ thông tin cá nhân và ngăn chặn rò rỉ thông tin; khi chuyển khoản từ xa phải yêu cầu xác minh nhiều lần và “giữ chắc túi tiền”.
Trong thời đại AI, văn bản, âm thanh, hình ảnh và video đều có thể được tổng hợp sâu. Trong các tình huống điển hình như chuyển tiền và trao đổi vốn, cần xác minh và xác nhận thông qua các phương thức liên lạc bổ sung như gọi lại số điện thoại di động của đối tác, không nên chuyển tiền chỉ thông qua một kênh liên lạc duy nhất mà không cần xác minh. Trong trường hợp bị mất tiền, cần kịp thời báo cảnh sát.
Thời gian gần đây, phạm vi ứng dụng app “AI hoán đổi khuôn mặt” ngày càng rộng nhưng dường như có sự lạm dụng, thậm chí có người lợi dụng AI thay đổi khuôn mặt để phạm tội , như làm giả video nội dung thô tục, thay đổi khuôn mặt để lừa đảo.
Theo thông báo của cảnh sát An Huy, vài ngày trước, vụ lừa đảo “mạo xưng người quen” đã xảy ra tại Khu phát triển kinh tế An Khánh. Cuộc điều tra của cảnh sát thuộc Trung tâm chống lừa đảo đã phát hiện ra rằng, kẻ lừa đảo đã sử dụng video hoán đổi khuôn mặt bằng AI dài 9 giây, giả làm người quen để khiến nạn nhân mất cảnh giác và thực hiện hành vi lừa đảo.
Theo báo chí đưa tin, vào ngày 22/5, ông Hà X. ở An Khánh, An Huy nhận được một cuộc gọi video từ một người quen và nhờ ông chuyển giúp một khoản tiền.
Nhưng 9 giây sau, đầu dây bên kia nhanh chóng cúp máy với lý do “đang họp” và nói: “Không thể nói qua WeChat và điện thoại, hãy nhắn qua QQ”. “Vì video call, lại là người quen thân nên tôi đã chuyển tiền mà không suy nghĩ nhiều”.
Sau khi phát hiện ra mình bị lừa, ông Hà đã nhanh chóng báo cảnh sát, cảnh sát đặc nhiệm lập tức phong tỏa tài khoản liên quan, rồi tức tốc đến Bắc Kinh ngay trong đêm để bắt giữ 3 nghi phạm liên quan đến vụ lừa đảo và thu hồi số tiền 1,32 triệu NDT mà ông Hà đã bị lừa.
Với công nghệ AI có thể thay thế khuôn mặt trong video
Trước đó, theo tài khoản WeChat công khai “Ping An Baotou” (Bình an Bao Đầu), Cục Điều tra Tội phạm mạng Viễn thông của Cục Công an thành phố Bao Đầu (Nội Mông) đã công bố phá vỡ một vụ án gian lận viễn thông sử dụng công nghệ AI để lừa đảo. Ông Quách Y, đại diện pháp nhân của một công ty công nghệ ở Phúc Châu, đã bị lừa 4,3 triệu NDT trong vòng 10 phút.
Vào tháng 4 năm nay, một người bạn thân của Quách đã liên lạc với ông qua video WeChat, nói rằng ông ta đang đấu thầu công trình ở một nơi khác và cần đặt cọc 4,3 triệu NDT; đồng thời muốn mượn tài khoản của công ty ông Quách để chuyển tiền. Dựa trên sự tin tưởng vào người bạn của mình và việc “xác minh” người này thông qua cuộc gọi video, ông Quách đã chuyển 4,3 triệu NDT vào tài khoản ngân hàng do “bạn” cung cấp bằng hai giao dịch trong vòng 10 phút. Sau đó, ông Quách mới phát hiện ra mình bị lừa khi gọi điện cho người bạn thân.
AI thay đổi khuôn mặt cũng xuất hiện trong các chương trình livestream bán hàng. Trước đây, một số phòng phát sóng trực tiếp thương mại điện tử đã sử dụng các chương trình livestream sử dụng công nghệ AI thay đổi khuôn mặt đã gây nên sự chú ý của dư luận.
Trong một video cho thấy hiệu quả của việc livestream thay đổi khuôn mặt, sau khi người dùng tải mô hình có tên “Thành Long” vào phần mềm có liên quan, người đứng trước máy quay có các đặc điểm ngũ quan giống hệt Thành Long trong màn hình livestream.
Theo The Paper , trên kho ứng dụng cũng có nhiều loại phần mềm hoán đổi khuôn mặt AI, gần như có thể làm giả như thật. Một nền tảng video ngắn còn tung ra trò chơi “AI thay tùy ý”, người dùng có thể thay khuôn mặt của mình vào thân những người nổi tiếng và đăng video lên.
Trước những thủ đoạn lừa đảo khó lường này, liệu có cách nào để nhận biết ? Các chuyên gia cho rằng, có những sai sót trong các đặc điểm kết cấu của “khuôn mặt AI giả mạo”. Ví dụ, các chi tiết mắt hoặc hàm răng không nhất quán; màu đồng tử hoặc các chi tiết phản chiếu không giống nhau; các răng quá chỉnh tề.... Ngoài ra, “khuôn mặt AI” có thể không phù hợp với các đặc điểm sinh lý của người bình thường, chẳng hạn như tần suất chớp mắt, cử động miệng không chân thực và chính xác.
Hiệp hội Internet Trung Quốc ngày 24/5 cho biết, kể từ đầu năm nay, việc áp dụng các công nghệ như ChatGPT và GPT-4 đã trở thành điểm nóng trong lĩnh vực công nghệ thông tin, thu hút sự chú ý và nhiệt tình rộng rãi của công chúng đối với công nghệ AI.
Tuy nhiên, với nguồn mở của công nghệ tổng hợp sâu, các sản phẩm và dịch vụ tổng hợp sâu đang dần tăng lên và việc sử dụng âm thanh và video giả mạo như “Hoán đổi khuôn mặt AI” và “Thay đổi giọng nói AI” để thực hiện hành vi lừa đảo và phỉ báng là điều không hiếm gặp. Điều đáng nói là trong những vụ việc này, những kẻ lừa đảo không “bủa lưới bừa bãi” mà sử dụng công nghệ AI để sàng lọc những người dễ bị lừa và nhắm đến những mục tiêu cụ thể với động cơ xấu xa.
Để điều chỉnh, quy phạm sự phát triển của trí tuệ nhân tạo, vào tháng 12 năm ngoái, Trung Quốc đã chính thức ban hành “Quy định quản lý tổng hợp sâu dịch vụ thông tin Internet”, trong đó nêu rõ các quy phạm quản lý công nghệ và dữ liệu tổng hợp. Hiệp hội Internet Trung Quốc nhắc nhở mọi người dùng internet hãy là người chịu trách nhiệm đầu tiên về bảo mật thông tin cá nhân của mình, tăng cường nhận thức về bảo vệ thông tin cá nhân và ngăn chặn rò rỉ thông tin; khi chuyển khoản từ xa phải yêu cầu xác minh nhiều lần và “giữ chắc túi tiền”.
Trong thời đại AI, văn bản, âm thanh, hình ảnh và video đều có thể được tổng hợp sâu. Trong các tình huống điển hình như chuyển tiền và trao đổi vốn, cần xác minh và xác nhận thông qua các phương thức liên lạc bổ sung như gọi lại số điện thoại di động của đối tác, không nên chuyển tiền chỉ thông qua một kênh liên lạc duy nhất mà không cần xác minh. Trong trường hợp bị mất tiền, cần kịp thời báo cảnh sát.
Theo Genk