Mặc dù nhiều gã khổng lồ công nghệ đã ký cam kết bảo vệ AI. Tuy nhiên các nguyên tắc của chính phủ Hoa Kỳ không có bất kỳ hình phạt nào đối với việc khi các công ty không tuân thủ các nguyên tắc này.
Một số công ty hàng đầu của Mỹ đang phát triển công nghệ AI mới đây đã đồng ý hợp tác với chính phủ Hoa Kỳ và cam kết thực hiện một số nguyên tắc để đảm bảo niềm tin của công chúng vào AI.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI đều đã ký cam kết làm cho AI trở nên an toàn, bảo mật và đáng tin cậy. Vào tháng 5, chính quyền Biden đã nói rằng họ sẽ gặp gỡ các nhà phát triển AI hàng đầu để đảm bảo rằng họ phù hợp với chính sách của Hoa Kỳ.
Các cam kết không ràng buộc và không có hình phạt nào cho việc không tuân thủ chúng. Các chính sách cũng không thể ảnh hưởng đến các hệ thống AI đã được triển khai, một trong các điều khoản nói rằng các công ty sẽ cam kết kiểm tra AI để tìm các lỗ hổng bảo mật, cả bên trong và bên ngoài trước khi phát hành.
Tuy nhiên, các cam kết mới được đồng thuận bởi nhiều hãng công nghệ nhằm trấn an công chúng (và ở một mức độ nào đó là các nhà lập pháp) rằng AI có thể được triển khai một cách có trách nhiệm. Chính quyền Biden đã đề xuất sử dụng AI trong chính phủ để hợp lý hóa các nhiệm vụ.
Có lẽ tác động tức thời nhất sẽ được cảm nhận đối với tác phẩm nghệ thuật AI, vì tất cả các bên đã đồng ý sử dụng hình mờ kỹ thuật số để xác định một tác phẩm nghệ thuật có phải là do AI tạo ra hay không. Một số dịch vụ, chẳng hạn như Bing Image Creator đã thực hiện việc này.
Tất cả những gã khổng lồ công nghệ ký kết cũng cam kết sử dụng AI vì lợi ích công cộng, chẳng hạn như nghiên cứu ung thư, cũng như xác định các lĩnh vực sử dụng phù hợp và không phù hợp. Điều này chưa được xác định, nhưng có thể bao gồm các biện pháp bảo vệ hiện có ngăn ChatGPT, chẳng hạn như kẻ thù sử dụng các công cụ AI để lên kế hoạch tấn công khủng bố. Các công ty AI cũng cam kết bảo vệ quyền riêng tư của dữ liệu, một ưu tiên mà Microsoft đã duy trì với các phiên bản doanh nghiệp của Bing Chat và Microsoft 365 Copilot.
Tất cả các công ty đã cam kết kiểm tra bảo mật bên trong và bên ngoài hệ thống AI của họ trước khi phát hành và chia sẻ thông tin với các ngành, các chính phủ, công chúng và học viện về quản lý rủi ro AI. Họ cũng cam kết cho phép các nhà nghiên cứu bên thứ ba truy cập để khám phá và báo cáo các lỗ hổng.
Chủ tịch Microsoft ông Brad Smith đã tán thành các cam kết mới, lưu ý rằng Microsoft đã ủng hộ việc thành lập cơ quan đăng ký quốc gia về các hệ thống AI có rủi ro cao. Google cũng tiết lộ đã thành lập một đội để cố gắng phá vỡ AI bằng các cuộc tấn công.
OpenAI cho biết trong một tuyên bố “Là một phần trong sứ mệnh xây dựng AGI an toàn và có lợi, chúng tôi sẽ tiếp tục thử nghiệm và tinh chỉnh các hoạt động quản trị cụ thể được điều chỉnh cụ thể cho các mô hình nền tảng có năng lực cao như mô hình mà chúng tôi sản xuất. Chúng tôi cũng sẽ tiếp tục đầu tư vào nghiên cứu trong các lĩnh vực có thể giúp thông báo quy định, chẳng hạn như kỹ thuật đánh giá các khả năng nguy hiểm tiềm tàng trong các mô hình AI”.
Một số công ty hàng đầu của Mỹ đang phát triển công nghệ AI mới đây đã đồng ý hợp tác với chính phủ Hoa Kỳ và cam kết thực hiện một số nguyên tắc để đảm bảo niềm tin của công chúng vào AI.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI đều đã ký cam kết làm cho AI trở nên an toàn, bảo mật và đáng tin cậy. Vào tháng 5, chính quyền Biden đã nói rằng họ sẽ gặp gỡ các nhà phát triển AI hàng đầu để đảm bảo rằng họ phù hợp với chính sách của Hoa Kỳ.
Các cam kết không ràng buộc và không có hình phạt nào cho việc không tuân thủ chúng. Các chính sách cũng không thể ảnh hưởng đến các hệ thống AI đã được triển khai, một trong các điều khoản nói rằng các công ty sẽ cam kết kiểm tra AI để tìm các lỗ hổng bảo mật, cả bên trong và bên ngoài trước khi phát hành.
Tuy nhiên, các cam kết mới được đồng thuận bởi nhiều hãng công nghệ nhằm trấn an công chúng (và ở một mức độ nào đó là các nhà lập pháp) rằng AI có thể được triển khai một cách có trách nhiệm. Chính quyền Biden đã đề xuất sử dụng AI trong chính phủ để hợp lý hóa các nhiệm vụ.
Có lẽ tác động tức thời nhất sẽ được cảm nhận đối với tác phẩm nghệ thuật AI, vì tất cả các bên đã đồng ý sử dụng hình mờ kỹ thuật số để xác định một tác phẩm nghệ thuật có phải là do AI tạo ra hay không. Một số dịch vụ, chẳng hạn như Bing Image Creator đã thực hiện việc này.
Tất cả những gã khổng lồ công nghệ ký kết cũng cam kết sử dụng AI vì lợi ích công cộng, chẳng hạn như nghiên cứu ung thư, cũng như xác định các lĩnh vực sử dụng phù hợp và không phù hợp. Điều này chưa được xác định, nhưng có thể bao gồm các biện pháp bảo vệ hiện có ngăn ChatGPT, chẳng hạn như kẻ thù sử dụng các công cụ AI để lên kế hoạch tấn công khủng bố. Các công ty AI cũng cam kết bảo vệ quyền riêng tư của dữ liệu, một ưu tiên mà Microsoft đã duy trì với các phiên bản doanh nghiệp của Bing Chat và Microsoft 365 Copilot.
Tất cả các công ty đã cam kết kiểm tra bảo mật bên trong và bên ngoài hệ thống AI của họ trước khi phát hành và chia sẻ thông tin với các ngành, các chính phủ, công chúng và học viện về quản lý rủi ro AI. Họ cũng cam kết cho phép các nhà nghiên cứu bên thứ ba truy cập để khám phá và báo cáo các lỗ hổng.
Chủ tịch Microsoft ông Brad Smith đã tán thành các cam kết mới, lưu ý rằng Microsoft đã ủng hộ việc thành lập cơ quan đăng ký quốc gia về các hệ thống AI có rủi ro cao. Google cũng tiết lộ đã thành lập một đội để cố gắng phá vỡ AI bằng các cuộc tấn công.
OpenAI cho biết trong một tuyên bố “Là một phần trong sứ mệnh xây dựng AGI an toàn và có lợi, chúng tôi sẽ tiếp tục thử nghiệm và tinh chỉnh các hoạt động quản trị cụ thể được điều chỉnh cụ thể cho các mô hình nền tảng có năng lực cao như mô hình mà chúng tôi sản xuất. Chúng tôi cũng sẽ tiếp tục đầu tư vào nghiên cứu trong các lĩnh vực có thể giúp thông báo quy định, chẳng hạn như kỹ thuật đánh giá các khả năng nguy hiểm tiềm tàng trong các mô hình AI”.
Theo Genk