Intel giới thiệu phương pháp tiếp cận được điều khiển bởi phần mềm và tăng tốc bằng silicon dựa trên nền tảng của tính cởi mở, sự lựa chọn, sự tin tưởng, và tính bảo mật.
Ngày thứ hai trong khuôn khổ sự kiện Intel Innovation 2023, Giám đốc Công nghệ của Intel, ông Greg Lavender đã cung cấp một cái nhìn chi tiết về các triết lý ưu tiên nhà phát triển và hệ sinh thái mở của Intel đang hoạt động nhằm đảm bảo tất cả mọi người đều có sử dụng trí tuệ nhân tạo (AI) để nắm bắt những cơ hội mới.
Dù muốn khai thác tiềm năng của AI nhưng các nhà phát triển đang phải đối mặt với những trở ngại trong việc triển khai rộng rãi các giải pháp cho các máy tính cá nhân và edge đến trung tâm dữ liệu và điện toán đám mây. Intel cam kết sẽ loại bỏ những rào cản này bằng phương pháp tiếp cận định hướng bởi phần mềm và tăng tốc bằng silicon dựa trên tính cởi mở, sự lựa chọn, sự tin tưởng, và tính bảo mật. Intel đang trao quyền cho các nhà phát triển để phổ cập AI đến khắp mọi nơi qua việc cung cấp các công cụ sắp xếp quá trình phát triển ứng AI an toàn và giảm bớt khoản đầu tư để duy trì và mở rộng các giải pháp.
Ông Lavender chia sẻ: “Cộng đồng nhà phát triển sẽ trở thành chất xúc tác hỗ trợ các ngành công nghiệp tận dụng AI để đạt được những nhu cầu mong muốn, cả trong hiện tại, cũng như tương lai. AI có thể và nên được phổ cập đến tất cả mọi người để chia sẻ trách nhiệm. Nếu các nhà phát triển không có nhièu lựa chọn về phần cứng và phần mềm, các trường hợp sử dụng để ứng dụng AI trên phạm vi toàn cầu cũng bị bó hẹp và khiến cho giá trị mà AI có thể mang lại cho xã hội sẽ bị giới hạn.”
Dễ dàng Triển khai AI với Sự tin tưởng và Tính bảo mật
Trong phần trình bày tại Intel Innovion 2023 ngày thứ hai, ông Lavender nhấn mạnh cam kết của Intel trong việc bảo mật xuyên suốt (end-to-end) với Intel® Transparent Supply Chain để xác thực phần cứng và phần mềm, cũng như điện toán an toàn (confidential computing) để bảo vệ những dữ liệu nhạy cảm trong bộ nhớ. Hôm nay, Intel tiếp tục mở rộng khả năng bảo mật và bảo vệ tính toàn vẹn của dữ liệu với một số dịch vụ và công cụ mới, trong đó có một dịch vụ xác thực mới.
Đây là dịch vụ đầu tiên nằm trong danh mục phần mềm và dịch vụ bảo mật Intel® Trust Authority mới. Dịch vụ này cung cấp khả năng đánh giá độc lập và thống nhất về tính toàn vẹn của TEE, khả năng thực thi chính sách, và kiểm tra các hồ sơ. Các nhà phát triển cũng có thể sử dụng dịch vụ này ở bất kỳ nơi nào được triển khai điện toán an toàn của Intel, bao gồm đa đám mây (multi-cloud), đám mây lai (hybrid), máy chủ tại chỗ (on-premises), cũng như edge (vùng biên đám mây). Intel Trust Authority cũng sẽ là một cải tiến quan trọng dành cho AI an toàn (confidential AI) để đảm bảo tính tin cậy của các môi trường điện toán an toàn, nơi các sở hữu trí tuệ (intellectual property, viết tắt là IP) và dữ liệu được xử lý trong các ứng dụng máy học, đặc biệt là suy luận trên các thế hệ vi xử lý Intel® Xeon® hiện nay và tương lai.
AI là động lực đổi mới với các trường hợp sử dụng đa dạng trong mọi ngành nghề, từ y tế, tài chính cho đến thương mại điện tử, nông nghiệp.
Ông Lavender chia sẻ thêm: “Chiến lược phần mềm AI của chúng tôi được hình thành dựa trên một hệ sinh thái mở và điện toán tăng tốc mở để phổ cập AI đến mọi nơi. Chúng ta có muôn vàn cơ hội để mở rộng quá trình đổi mới, sáng tạo và Intel đang tạo ra một sân chơi bình đẳng cho các nhà phát triển AI.”
Hệ sinh thái Mở mang đến quyền Lựa chọn với Hiệu năng được Tối ưu hóa
Các tổ chức trên toàn cầu đang sử dụng AI để tăng tốc khám phá khoa học, chuyển đổi mô hình kinh doanh, và cải thiện dịch vụ khách hàng. Tuy nhiên, ứng dụng thực tiễn của các giải pháp AI vẫn đang gặp phải nhiều giới hạn mà các doanh nghiệp chưa giải quyết được. Đầu tiên, các tổ chức thiếu nguồn lực và chuyên môn nội bộ để quản lý quy trình AI hợp lý (bao gồm việc chuẩn bị dữ liệu và thiết lập mô hình). Chưa kể, các nền tảng độc quyền đang quá đắt đỏ và tốn thời gian duy trì hoạt động.
Intel cam kết thúc đẩy phát triển một hệ sinh thái mở để quá trình triển khai trên nhiều kiến trúc trở nên dễ dàng hơn. Việc Intel trở thành một trong những thành viên sáng lập Unified Acceleration Foundation (UXL) của Linux Foundation là một minh chứng cụ thể. Nhóm liên ngành này cam kết cung cấp mô hình lập trình tăng tốc mở để đơn hóa giản quá trình phát triển ứng dụng khi triển khai trên nhiều nền tảng. UXL là một bước tiến mới của oneAPI. Mô hình lập trình oneAPI của Intel cho phép lập trình một lần và triển khai trên nhiều nền tảng kiến trúc điện toán khác nhau như CPU, GPU, FGPA, và các bộ gia tốc. Intel sẽ tiếp tục đóng góp cấu hình oneAPI cho UXL Foundation để thúc đẩy khả năng lập trình đa nền tảng trên nhiều kiến trúc.
Intel cũng đang hợp tác cùng các hãng phần mềm hàng đầu như Red Hat, Canonical, và SUSE để mang cung cấp các bản phân phối phần mềm doanh nghiệp được tối ưu hóa bởi Intel nhằm đảm bảo hiệu năng của chúng khi chạy các kiến trúc mới nhất của Intel. Tại sự kiện Innovation, ông Lavender đã cùng ông Gunnar Hellekson, Phó Chủ tịch kiêm Tổng Giám đốc Red Hat Enterprise Linux, công bố mở rộng hợp tác. Theo đó, Intel sẽ thực hiện hỗ trợ hệ sinh thái Red Hat Enterprise Linux (RHEL) thông qua CentOS Stream. Intel cũng tiếp tục đóng góp việc xây dựng các công cụ và bộ khung phần mềm cho AI và máy học, bao gồm PyTorch và TensorFlow.
Để hỗ trợ các nhà phát triển mở rộng hiệu năng nhanh chóng và dễ dàng, Intel Granulate đang bổ sung tính năng Auto Pilot để điều chỉnh tài nguyên của pod (đại diện cho một nhóm gồm một hoặc nhiều ứng dụng container). Công cụ tối ưu hóa dung lượng cung cấp các đề xuất quản lý dung lượng tự động và liên tục cho người dùng Kubernetes. Điều này giúp họ giảm khoản đầu tư cần thiết để đáp ứng các chỉ số chi phí – hiệu năng cho các môi trường được container hóa. Intel Granulate cũng bổ sung khả năng điều phối các ứng dụng Databricks tự động, qua đó giảm trung bình 30% chi phí, và 23% thời gian xử lý mà không cần thay đổi mã.
Khi thế giới ngày càng cần đến AI để giải quyết những vấn đề lớn và phức tạp, cũng mang lại kết quả kinh doanh thực tế, nhu cầu bảo vệ các mô hình, dữ liệu và nền tảng AI khỏi việc bị xâm nhập, thao túng và đánh cắp đang ngày một tăng lên. FHE cho phép chạy các tính toán trực tiếp trên dữ liệu đã được mã hóa, dù việc triển khai trên thực tiễn vẫn đang gặp nhiều giới hạn bởi độ phức tạp tính toán (computational complexity) và chi phí.
Intel đã lên kế hoạch để phát triển bộ gia tốc ASIC để giảm một triệu lần chi phí hiệu năng liên quan đến phương pháp tiếp cận FHE thông qua phần mềm. Ngoài ra, công ty cũng sẽ ra mắt phiên bản thử nghiệm beta của bộ công cụ được mã hóa để các nhà nghiên cứu, nhà phát triển và cồng đồng người dùng có thể tìm hiểu và thử nghiệm việc lập trình FHE. Bộ công cụ này sẽ ra mắt vào cuối năm nay và là một phần của Intel® Developer Cloud. Ngoài ra, bộ công cụ này sẽ bao gồm một giao diện có thể tương tác để phát triển phần mềm FHE, các công cụ dịch thuật, và một trình mô phỏng bộ tăng tốc phần cứng.
Ngày thứ hai trong khuôn khổ sự kiện Intel Innovation 2023, Giám đốc Công nghệ của Intel, ông Greg Lavender đã cung cấp một cái nhìn chi tiết về các triết lý ưu tiên nhà phát triển và hệ sinh thái mở của Intel đang hoạt động nhằm đảm bảo tất cả mọi người đều có sử dụng trí tuệ nhân tạo (AI) để nắm bắt những cơ hội mới.
Dù muốn khai thác tiềm năng của AI nhưng các nhà phát triển đang phải đối mặt với những trở ngại trong việc triển khai rộng rãi các giải pháp cho các máy tính cá nhân và edge đến trung tâm dữ liệu và điện toán đám mây. Intel cam kết sẽ loại bỏ những rào cản này bằng phương pháp tiếp cận định hướng bởi phần mềm và tăng tốc bằng silicon dựa trên tính cởi mở, sự lựa chọn, sự tin tưởng, và tính bảo mật. Intel đang trao quyền cho các nhà phát triển để phổ cập AI đến khắp mọi nơi qua việc cung cấp các công cụ sắp xếp quá trình phát triển ứng AI an toàn và giảm bớt khoản đầu tư để duy trì và mở rộng các giải pháp.
Ông Lavender chia sẻ: “Cộng đồng nhà phát triển sẽ trở thành chất xúc tác hỗ trợ các ngành công nghiệp tận dụng AI để đạt được những nhu cầu mong muốn, cả trong hiện tại, cũng như tương lai. AI có thể và nên được phổ cập đến tất cả mọi người để chia sẻ trách nhiệm. Nếu các nhà phát triển không có nhièu lựa chọn về phần cứng và phần mềm, các trường hợp sử dụng để ứng dụng AI trên phạm vi toàn cầu cũng bị bó hẹp và khiến cho giá trị mà AI có thể mang lại cho xã hội sẽ bị giới hạn.”
Dễ dàng Triển khai AI với Sự tin tưởng và Tính bảo mật
Trong phần trình bày tại Intel Innovion 2023 ngày thứ hai, ông Lavender nhấn mạnh cam kết của Intel trong việc bảo mật xuyên suốt (end-to-end) với Intel® Transparent Supply Chain để xác thực phần cứng và phần mềm, cũng như điện toán an toàn (confidential computing) để bảo vệ những dữ liệu nhạy cảm trong bộ nhớ. Hôm nay, Intel tiếp tục mở rộng khả năng bảo mật và bảo vệ tính toàn vẹn của dữ liệu với một số dịch vụ và công cụ mới, trong đó có một dịch vụ xác thực mới.
Đây là dịch vụ đầu tiên nằm trong danh mục phần mềm và dịch vụ bảo mật Intel® Trust Authority mới. Dịch vụ này cung cấp khả năng đánh giá độc lập và thống nhất về tính toàn vẹn của TEE, khả năng thực thi chính sách, và kiểm tra các hồ sơ. Các nhà phát triển cũng có thể sử dụng dịch vụ này ở bất kỳ nơi nào được triển khai điện toán an toàn của Intel, bao gồm đa đám mây (multi-cloud), đám mây lai (hybrid), máy chủ tại chỗ (on-premises), cũng như edge (vùng biên đám mây). Intel Trust Authority cũng sẽ là một cải tiến quan trọng dành cho AI an toàn (confidential AI) để đảm bảo tính tin cậy của các môi trường điện toán an toàn, nơi các sở hữu trí tuệ (intellectual property, viết tắt là IP) và dữ liệu được xử lý trong các ứng dụng máy học, đặc biệt là suy luận trên các thế hệ vi xử lý Intel® Xeon® hiện nay và tương lai.
AI là động lực đổi mới với các trường hợp sử dụng đa dạng trong mọi ngành nghề, từ y tế, tài chính cho đến thương mại điện tử, nông nghiệp.
Ông Lavender chia sẻ thêm: “Chiến lược phần mềm AI của chúng tôi được hình thành dựa trên một hệ sinh thái mở và điện toán tăng tốc mở để phổ cập AI đến mọi nơi. Chúng ta có muôn vàn cơ hội để mở rộng quá trình đổi mới, sáng tạo và Intel đang tạo ra một sân chơi bình đẳng cho các nhà phát triển AI.”
Hệ sinh thái Mở mang đến quyền Lựa chọn với Hiệu năng được Tối ưu hóa
Các tổ chức trên toàn cầu đang sử dụng AI để tăng tốc khám phá khoa học, chuyển đổi mô hình kinh doanh, và cải thiện dịch vụ khách hàng. Tuy nhiên, ứng dụng thực tiễn của các giải pháp AI vẫn đang gặp phải nhiều giới hạn mà các doanh nghiệp chưa giải quyết được. Đầu tiên, các tổ chức thiếu nguồn lực và chuyên môn nội bộ để quản lý quy trình AI hợp lý (bao gồm việc chuẩn bị dữ liệu và thiết lập mô hình). Chưa kể, các nền tảng độc quyền đang quá đắt đỏ và tốn thời gian duy trì hoạt động.
Intel cam kết thúc đẩy phát triển một hệ sinh thái mở để quá trình triển khai trên nhiều kiến trúc trở nên dễ dàng hơn. Việc Intel trở thành một trong những thành viên sáng lập Unified Acceleration Foundation (UXL) của Linux Foundation là một minh chứng cụ thể. Nhóm liên ngành này cam kết cung cấp mô hình lập trình tăng tốc mở để đơn hóa giản quá trình phát triển ứng dụng khi triển khai trên nhiều nền tảng. UXL là một bước tiến mới của oneAPI. Mô hình lập trình oneAPI của Intel cho phép lập trình một lần và triển khai trên nhiều nền tảng kiến trúc điện toán khác nhau như CPU, GPU, FGPA, và các bộ gia tốc. Intel sẽ tiếp tục đóng góp cấu hình oneAPI cho UXL Foundation để thúc đẩy khả năng lập trình đa nền tảng trên nhiều kiến trúc.
Intel cũng đang hợp tác cùng các hãng phần mềm hàng đầu như Red Hat, Canonical, và SUSE để mang cung cấp các bản phân phối phần mềm doanh nghiệp được tối ưu hóa bởi Intel nhằm đảm bảo hiệu năng của chúng khi chạy các kiến trúc mới nhất của Intel. Tại sự kiện Innovation, ông Lavender đã cùng ông Gunnar Hellekson, Phó Chủ tịch kiêm Tổng Giám đốc Red Hat Enterprise Linux, công bố mở rộng hợp tác. Theo đó, Intel sẽ thực hiện hỗ trợ hệ sinh thái Red Hat Enterprise Linux (RHEL) thông qua CentOS Stream. Intel cũng tiếp tục đóng góp việc xây dựng các công cụ và bộ khung phần mềm cho AI và máy học, bao gồm PyTorch và TensorFlow.
Để hỗ trợ các nhà phát triển mở rộng hiệu năng nhanh chóng và dễ dàng, Intel Granulate đang bổ sung tính năng Auto Pilot để điều chỉnh tài nguyên của pod (đại diện cho một nhóm gồm một hoặc nhiều ứng dụng container). Công cụ tối ưu hóa dung lượng cung cấp các đề xuất quản lý dung lượng tự động và liên tục cho người dùng Kubernetes. Điều này giúp họ giảm khoản đầu tư cần thiết để đáp ứng các chỉ số chi phí – hiệu năng cho các môi trường được container hóa. Intel Granulate cũng bổ sung khả năng điều phối các ứng dụng Databricks tự động, qua đó giảm trung bình 30% chi phí, và 23% thời gian xử lý mà không cần thay đổi mã.
Khi thế giới ngày càng cần đến AI để giải quyết những vấn đề lớn và phức tạp, cũng mang lại kết quả kinh doanh thực tế, nhu cầu bảo vệ các mô hình, dữ liệu và nền tảng AI khỏi việc bị xâm nhập, thao túng và đánh cắp đang ngày một tăng lên. FHE cho phép chạy các tính toán trực tiếp trên dữ liệu đã được mã hóa, dù việc triển khai trên thực tiễn vẫn đang gặp nhiều giới hạn bởi độ phức tạp tính toán (computational complexity) và chi phí.
Intel đã lên kế hoạch để phát triển bộ gia tốc ASIC để giảm một triệu lần chi phí hiệu năng liên quan đến phương pháp tiếp cận FHE thông qua phần mềm. Ngoài ra, công ty cũng sẽ ra mắt phiên bản thử nghiệm beta của bộ công cụ được mã hóa để các nhà nghiên cứu, nhà phát triển và cồng đồng người dùng có thể tìm hiểu và thử nghiệm việc lập trình FHE. Bộ công cụ này sẽ ra mắt vào cuối năm nay và là một phần của Intel® Developer Cloud. Ngoài ra, bộ công cụ này sẽ bao gồm một giao diện có thể tương tác để phát triển phần mềm FHE, các công cụ dịch thuật, và một trình mô phỏng bộ tăng tốc phần cứng.