Theo các bài báo học thuật và các nhà phân tích, các tổ chức nghiên cứu hàng đầu của Trung Quốc có liên kết với Quân Giải phóng Nhân dân đã sử dụng mô hình Llama công khai của Meta để phát triển một công cụ AI cho các ứng dụng quân sự tiềm năng.
Trong một bài báo vào tháng 6 được Reuters xem xét, sáu nhà nghiên cứu Trung Quốc từ ba tổ chức, bao gồm hai tổ chức thuộc cơ quan nghiên cứu hàng đầu của Quân Giải phóng Nhân dân (PLA), Học viện Khoa học Quân sự (AMS), đã trình bày chi tiết cách họ sử dụng phiên bản đầu tiên của Llama của Meta làm nền tảng cho cái mà họ gọi là "ChatBIT".
Các nhà nghiên cứu đã sử dụng mô hình ngôn ngữ lớn (LLM) Llama 2 13B mà Meta META.O phát hành vào tháng 2 năm 2023, kết hợp các tham số riêng của họ để xây dựng một công cụ AI tập trung vào quân sự nhằm thu thập và xử lý thông tin tình báo, đồng thời cung cấp thông tin chính xác và đáng tin cậy cho việc ra quyết định tác chiến.
ChatBIT đã được tinh chỉnh và "tối ưu hóa cho các tác vụ đối thoại và hỏi đáp trong lĩnh vực quân sự", bài báo cho biết. Nó được phát hiện là vượt trội hơn một số mô hình AI khác có khả năng khoảng 90% so với ChatGPT-4 mạnh mẽ của OpenAI. Các nhà nghiên cứu không giải thích chi tiết về cách họ xác định hiệu suất hoặc chỉ rõ liệu mô hình AI này đã được đưa vào sử dụng hay chưa.
Sunny Cheung, cộng sự nghiên cứu tại Jamestown Foundation, chuyên về các công nghệ mới nổi và lưỡng dụng của Trung Quốc, bao gồm cả AI, cho biết: "Đây là lần đầu tiên có bằng chứng đáng kể cho thấy các chuyên gia quân sự PLA ở Trung Quốc đã nghiên cứu một cách có hệ thống và cố gắng tận dụng sức mạnh của các LLM nguồn mở, đặc biệt là của Meta, cho mục đích quân sự."
Meta đã chấp nhận phát hành công khai nhiều mô hình AI của mình, bao gồm cả Llama. Họ áp đặt các hạn chế đối với việc sử dụng chúng, bao gồm yêu cầu các dịch vụ có hơn 700 triệu người dùng phải xin giấy phép từ công ty. Các điều khoản của Meta cũng cấm sử dụng các mô hình này cho "quân sự, chiến tranh, công nghiệp hoặc ứng dụng hạt nhân, gián điệp" và các hoạt động khác chịu sự kiểm soát xuất khẩu quốc phòng của Hoa Kỳ, cũng như để phát triển vũ khí và nội dung nhằm "kích động và thúc đẩy bạo lực".
Tuy nhiên, vì các mô hình của Meta là công khai, nên công ty có những cách hạn chế để thực thi các điều khoản đó. Trả lời câu hỏi của Reuters, Meta đã trích dẫn chính sách sử dụng được chấp nhận của mình và cho biết họ đã thực hiện các biện pháp để ngăn chặn việc sử dụng sai mục đích.
Molly Montgomery, giám đốc chính sách công của Meta, nói với Reuters trong một cuộc phỏng vấn qua điện thoại: "Bất kỳ việc sử dụng mô hình của chúng tôi nào bởi Quân Giải phóng Nhân dân đều là trái phép và trái với chính sách sử dụng được chấp nhận của chúng tôi."
Các nhà nghiên cứu Trung Quốc bao gồm Geng Guotong và Li Weiwei thuộc Trung tâm Nghiên cứu Thông tin Khoa học Quân sự của AMS và Viện Đổi mới Công nghệ Quốc phòng, cũng như các nhà nghiên cứu từ Viện Công nghệ Bắc Kinh và Đại học Dân tộc. Bài báo cho biết: "Trong tương lai, thông qua việc tinh chỉnh công nghệ, ChatBIT sẽ không chỉ được áp dụng cho phân tích tình báo mà còn ... lập kế hoạch chiến lược, huấn luyện mô phỏng và ra quyết định chỉ huy sẽ được khám phá."
Bộ Quốc phòng Trung Quốc không trả lời yêu cầu bình luận, cũng như bất kỳ tổ chức hoặc nhà nghiên cứu nào. Reuters không thể xác nhận khả năng và sức mạnh tính toán của ChatBIT, mặc dù các nhà nghiên cứu lưu ý rằng mô hình của nó chỉ kết hợp 100.000 bản ghi đối thoại quân sự, một con số tương đối nhỏ so với các LLM khác.
Joelle Pineau, phó chủ tịch Nghiên cứu AI tại Meta và giáo sư khoa học máy tính tại Đại học McGill ở Canada, cho biết: "Đó là một giọt nước giữa đại dương so với hầu hết các mô hình này (được) đào tạo với hàng nghìn tỷ mã thông báo, vì vậy… nó thực sự khiến tôi đặt câu hỏi về những gì họ thực sự đạt được ở đây về mặt khả năng khác nhau." Nghiên cứu này được đưa ra trong bối cảnh cuộc tranh luận gay gắt trong giới an ninh quốc gia và công nghệ của Hoa Kỳ về việc liệu các công ty như Meta có nên công khai các mô hình của họ hay không.
Tổng thống Hoa Kỳ Joe Biden vào tháng 10 năm 2023 đã ký một sắc lệnh hành pháp tìm cách quản lý sự phát triển của AI, lưu ý rằng mặc dù có thể có những lợi ích đáng kể đối với sự đổi mới, "nhưng cũng có" những rủi ro bảo mật đáng kể, chẳng hạn như việc loại bỏ các biện pháp bảo vệ trong mô hình.
Người phát ngôn Lầu 5 Góc John Supple cho biết Bộ Quốc phòng nhận thấy rằng các mô hình nguồn mở có cả lợi ích và hạn chế, và rằng "chúng tôi sẽ tiếp tục theo dõi chặt chẽ và đánh giá khả năng của đối thủ cạnh tranh". Một số nhà quan sát cho rằng những bước tiến của Trung Quốc trong việc phát triển AI bản địa, bao gồm việc thành lập nhiều phòng thí nghiệm nghiên cứu, đã khiến nước này khó có thể thu hẹp khoảng cách công nghệ với Hoa Kỳ.
Trong một bài báo học thuật khác được Reuters xem xét, hai nhà nghiên cứu của Tập đoàn Công nghiệp Hàng không Trung Quốc (AVIC) - mà Hoa Kỳ đã chỉ định là một công ty có quan hệ với PLA - đã mô tả việc sử dụng Llama 2 để "đào tạo các chiến lược gây nhiễu điện tử trên không".
Việc Trung Quốc sử dụng AI do phương Tây phát triển cũng đã mở rộng sang an ninh nội địa. Một bài báo vào tháng 6 đã mô tả cách Llama được sử dụng cho "cảnh sát tình báo" để xử lý lượng lớn dữ liệu và nâng cao khả năng ra quyết định của cảnh sát. Nhật báo PLA do nhà nước điều hành đã đăng bài bình luận vào tháng 4 về cách AI có thể giúp "đẩy nhanh việc nghiên cứu và phát triển vũ khí và thiết bị", giúp phát triển mô phỏng chiến đấu và cải thiện hiệu quả huấn luyện quân sự.
William Hannas, nhà phân tích chính tại Trung tâm An ninh và Công nghệ Mới nổi (CSET) của Đại học Georgetown, nói với Reuters: "Bạn có thể ngăn họ (Trung Quốc) ra khỏi cái lọ bánh quy không? Không, tôi không thấy bạn có thể làm như thế nào." Một bài báo năm 2023 của CSET đã tìm thấy 370 tổ chức Trung Quốc mà các nhà nghiên cứu của họ đã xuất bản các bài báo liên quan đến Trí tuệ nhân tạo tổng quát - giúp thúc đẩy chiến lược quốc gia của Trung Quốc nhằm dẫn đầu thế giới về AI vào năm 2030.
Hannas nói thêm: "Có quá nhiều sự hợp tác đang diễn ra giữa các nhà khoa học giỏi nhất của Trung Quốc và các nhà khoa học AI giỏi nhất của Hoa Kỳ để họ bị loại trừ khỏi sự phát triển."
Theo VN review
Trong một bài báo vào tháng 6 được Reuters xem xét, sáu nhà nghiên cứu Trung Quốc từ ba tổ chức, bao gồm hai tổ chức thuộc cơ quan nghiên cứu hàng đầu của Quân Giải phóng Nhân dân (PLA), Học viện Khoa học Quân sự (AMS), đã trình bày chi tiết cách họ sử dụng phiên bản đầu tiên của Llama của Meta làm nền tảng cho cái mà họ gọi là "ChatBIT".
Các nhà nghiên cứu đã sử dụng mô hình ngôn ngữ lớn (LLM) Llama 2 13B mà Meta META.O phát hành vào tháng 2 năm 2023, kết hợp các tham số riêng của họ để xây dựng một công cụ AI tập trung vào quân sự nhằm thu thập và xử lý thông tin tình báo, đồng thời cung cấp thông tin chính xác và đáng tin cậy cho việc ra quyết định tác chiến.
ChatBIT đã được tinh chỉnh và "tối ưu hóa cho các tác vụ đối thoại và hỏi đáp trong lĩnh vực quân sự", bài báo cho biết. Nó được phát hiện là vượt trội hơn một số mô hình AI khác có khả năng khoảng 90% so với ChatGPT-4 mạnh mẽ của OpenAI. Các nhà nghiên cứu không giải thích chi tiết về cách họ xác định hiệu suất hoặc chỉ rõ liệu mô hình AI này đã được đưa vào sử dụng hay chưa.
Sunny Cheung, cộng sự nghiên cứu tại Jamestown Foundation, chuyên về các công nghệ mới nổi và lưỡng dụng của Trung Quốc, bao gồm cả AI, cho biết: "Đây là lần đầu tiên có bằng chứng đáng kể cho thấy các chuyên gia quân sự PLA ở Trung Quốc đã nghiên cứu một cách có hệ thống và cố gắng tận dụng sức mạnh của các LLM nguồn mở, đặc biệt là của Meta, cho mục đích quân sự."
Meta đã chấp nhận phát hành công khai nhiều mô hình AI của mình, bao gồm cả Llama. Họ áp đặt các hạn chế đối với việc sử dụng chúng, bao gồm yêu cầu các dịch vụ có hơn 700 triệu người dùng phải xin giấy phép từ công ty. Các điều khoản của Meta cũng cấm sử dụng các mô hình này cho "quân sự, chiến tranh, công nghiệp hoặc ứng dụng hạt nhân, gián điệp" và các hoạt động khác chịu sự kiểm soát xuất khẩu quốc phòng của Hoa Kỳ, cũng như để phát triển vũ khí và nội dung nhằm "kích động và thúc đẩy bạo lực".
Tuy nhiên, vì các mô hình của Meta là công khai, nên công ty có những cách hạn chế để thực thi các điều khoản đó. Trả lời câu hỏi của Reuters, Meta đã trích dẫn chính sách sử dụng được chấp nhận của mình và cho biết họ đã thực hiện các biện pháp để ngăn chặn việc sử dụng sai mục đích.
Molly Montgomery, giám đốc chính sách công của Meta, nói với Reuters trong một cuộc phỏng vấn qua điện thoại: "Bất kỳ việc sử dụng mô hình của chúng tôi nào bởi Quân Giải phóng Nhân dân đều là trái phép và trái với chính sách sử dụng được chấp nhận của chúng tôi."
Các nhà nghiên cứu Trung Quốc bao gồm Geng Guotong và Li Weiwei thuộc Trung tâm Nghiên cứu Thông tin Khoa học Quân sự của AMS và Viện Đổi mới Công nghệ Quốc phòng, cũng như các nhà nghiên cứu từ Viện Công nghệ Bắc Kinh và Đại học Dân tộc. Bài báo cho biết: "Trong tương lai, thông qua việc tinh chỉnh công nghệ, ChatBIT sẽ không chỉ được áp dụng cho phân tích tình báo mà còn ... lập kế hoạch chiến lược, huấn luyện mô phỏng và ra quyết định chỉ huy sẽ được khám phá."
Bộ Quốc phòng Trung Quốc không trả lời yêu cầu bình luận, cũng như bất kỳ tổ chức hoặc nhà nghiên cứu nào. Reuters không thể xác nhận khả năng và sức mạnh tính toán của ChatBIT, mặc dù các nhà nghiên cứu lưu ý rằng mô hình của nó chỉ kết hợp 100.000 bản ghi đối thoại quân sự, một con số tương đối nhỏ so với các LLM khác.
Joelle Pineau, phó chủ tịch Nghiên cứu AI tại Meta và giáo sư khoa học máy tính tại Đại học McGill ở Canada, cho biết: "Đó là một giọt nước giữa đại dương so với hầu hết các mô hình này (được) đào tạo với hàng nghìn tỷ mã thông báo, vì vậy… nó thực sự khiến tôi đặt câu hỏi về những gì họ thực sự đạt được ở đây về mặt khả năng khác nhau." Nghiên cứu này được đưa ra trong bối cảnh cuộc tranh luận gay gắt trong giới an ninh quốc gia và công nghệ của Hoa Kỳ về việc liệu các công ty như Meta có nên công khai các mô hình của họ hay không.
Tổng thống Hoa Kỳ Joe Biden vào tháng 10 năm 2023 đã ký một sắc lệnh hành pháp tìm cách quản lý sự phát triển của AI, lưu ý rằng mặc dù có thể có những lợi ích đáng kể đối với sự đổi mới, "nhưng cũng có" những rủi ro bảo mật đáng kể, chẳng hạn như việc loại bỏ các biện pháp bảo vệ trong mô hình.
Người phát ngôn Lầu 5 Góc John Supple cho biết Bộ Quốc phòng nhận thấy rằng các mô hình nguồn mở có cả lợi ích và hạn chế, và rằng "chúng tôi sẽ tiếp tục theo dõi chặt chẽ và đánh giá khả năng của đối thủ cạnh tranh". Một số nhà quan sát cho rằng những bước tiến của Trung Quốc trong việc phát triển AI bản địa, bao gồm việc thành lập nhiều phòng thí nghiệm nghiên cứu, đã khiến nước này khó có thể thu hẹp khoảng cách công nghệ với Hoa Kỳ.
Trong một bài báo học thuật khác được Reuters xem xét, hai nhà nghiên cứu của Tập đoàn Công nghiệp Hàng không Trung Quốc (AVIC) - mà Hoa Kỳ đã chỉ định là một công ty có quan hệ với PLA - đã mô tả việc sử dụng Llama 2 để "đào tạo các chiến lược gây nhiễu điện tử trên không".
Việc Trung Quốc sử dụng AI do phương Tây phát triển cũng đã mở rộng sang an ninh nội địa. Một bài báo vào tháng 6 đã mô tả cách Llama được sử dụng cho "cảnh sát tình báo" để xử lý lượng lớn dữ liệu và nâng cao khả năng ra quyết định của cảnh sát. Nhật báo PLA do nhà nước điều hành đã đăng bài bình luận vào tháng 4 về cách AI có thể giúp "đẩy nhanh việc nghiên cứu và phát triển vũ khí và thiết bị", giúp phát triển mô phỏng chiến đấu và cải thiện hiệu quả huấn luyện quân sự.
William Hannas, nhà phân tích chính tại Trung tâm An ninh và Công nghệ Mới nổi (CSET) của Đại học Georgetown, nói với Reuters: "Bạn có thể ngăn họ (Trung Quốc) ra khỏi cái lọ bánh quy không? Không, tôi không thấy bạn có thể làm như thế nào." Một bài báo năm 2023 của CSET đã tìm thấy 370 tổ chức Trung Quốc mà các nhà nghiên cứu của họ đã xuất bản các bài báo liên quan đến Trí tuệ nhân tạo tổng quát - giúp thúc đẩy chiến lược quốc gia của Trung Quốc nhằm dẫn đầu thế giới về AI vào năm 2030.
Hannas nói thêm: "Có quá nhiều sự hợp tác đang diễn ra giữa các nhà khoa học giỏi nhất của Trung Quốc và các nhà khoa học AI giỏi nhất của Hoa Kỳ để họ bị loại trừ khỏi sự phát triển."
Theo VN review