Giới phân tích của Hàn Quốc nhận định, Samsung Electronics và SK hynix dự kiến sẽ được hưởng lợi từ các dịch vụ trí tuệ nhân tạo (AI) mới nổi như ChatGPT.
Điều này một phần nhờ nhu cầu ngày càng tăng tại các trung tâm xử lý đối với chip bộ nhớ hiệu suất cao (có thể xử lý nhiều dữ liệu hơn khi công nghệ AI ngày càng trở nên phổ biến).
ChatGPT là một "Chatbot" hoặc "Dịch vụ AI đàm thoại" do Công ty OpenAI có trụ sở tại Mỹ ra mắt vào tháng 11/2022. Không giống như các dịch vụ AI dựa trên trò chuyện trước đây, ChatGPT đã chứng kiến sự gia tăng bùng nổ về nhu cầu trên toàn thế giới bởi tạo cảm giác như đang nói chuyện với một người thực, có kiến thức sâu rộng về nhiều chủ đề khác nhau.
Các chuyên gia cho biết ChatGPT cho thấy cách AI có thể đạt được khả năng ở cấp độ con người thông qua tiến bộ công nghệ. Dịch vụ này cũng đã thúc đẩy những tập đoàn công nghệ thông tin (CNTT) như Microsoft và Google tung ra các dịch vụ AI được thương mại hóa. Các chuyên gia cũng cho rằng ChatGPT không chỉ tạo ra những thay đổi tại các công ty CNTT mà còn mang lại lợi ích to lớn cho các nhà sản xuất chất bán dẫn bộ nhớ thông qua việc mở rộng các loại ứng dụng dựa trên AI khác nhau, chẳng hạn như nhận dạng giọng nói, dịch thuật, lái xe tự động và phân loại hình ảnh.
Một quan chức tại công ty sản xuất chip của Hàn Quốc cho biết: "Nhu cầu về chip bộ nhớ sử dụng cho máy chủ và trung tâm dữ liệu được thúc đẩy nhờ việc sử dụng ngày càng nhiều các dịch vụ điện toán đám mây. Tuy nhiên, chúng tôi hy vọng một thị trường mới sẽ đi tiên phong khi các dịch vụ AI như ChatGPT cuối cùng sẽ làm tăng nhu cầu mở rộng các trung tâm dữ liệu để xử lý trơn tru số lượng lớn thông tin dữ liệu". Quan chức này nhấn mạnh: "Đặc biệt là nhu cầu về chip bộ nhớ hiệu năng cao, chẳng hạn như bộ nhớ băng thông cao (HBM) hoặc bộ nhớ xử lý trong bộ nhớ (PIM)".
Samsung và SK hynix hiện đã phát triển hoặc cung cấp các sản phẩm để đáp ứng sự phát triển bùng nổ của thị trường bán dẫn bộ nhớ cho các dịch vụ AI. Công cụ theo dõi thị trường Gartner gần đây đã ước tính quy mô của thị trường chip AI sẽ tăng từ mức 22 tỷ USD (năm 2020) lên 86,1 tỷ USD vào năm 2026. Vào tháng 10/2022, Samsung, nhà sản xuất chip bộ nhớ hàng đầu thế giới, đã kết hợp với công ty thiết kế chip AMD có trụ sở tại Mỹ để phát triển công nghệ HBM-PIM kết hợp chip bộ nhớ với bộ xử lý AI. Công nghệ này có hiệu suất trung bình cao gấp hai lần và giảm mức tiêu thụ năng lượng xuống còn 1/2 so với các đơn vị xử lý đồ họa (GPU) thông thường.
Phát biểu với các nhà đầu tư tại một hội nghị diễn ra vào ngày 31/1 vừa qua, ông Kim Jae-june, Phó Chủ tịch điều hành bộ phận kinh doanh bộ nhớ của Samsung nhấn mạnh: "Chúng tôi hy vọng các dịch vụ AI tương tác sẽ có tác động tích cực đến nhu cầu bộ nhớ trong tương lai". Ông cũng cho biết thêm rằng các chip bộ nhớ hiệu suất cao sẽ được sản xuất cho các dịch vụ này.
SK hynix cũng đang đáp ứng nhu cầu ngày càng tăng về chip bộ nhớ hiệu năng cao bằng cách cung cấp chip HBM3 (có dung lượng lớn và tốc độ xử lý dữ liệu được cải thiện) của mình cho một công ty thiết kế chip hàng đầu toàn cầu kể từ tháng 6/2022. Phát biểu với các nhà đầu tư ngày 1/2 vừa qua, ông Park Myoung-soo, Trưởng bộ phận tiếp thị DRAM tại SK hynix, dự báo: "ChatGPT sẽ mang lại hiệu ứng lan tỏa lớn về khả năng mở rộng của các mô hình ngôn ngữ cũng như khả năng khái quát hóa và thương mại hóa AI trong cộng đồng".
Không chỉ ChatGPT và Bard của Google mà hiện các công ty Hàn Quốc cũng đang nghiên cứu tung ra các dịch vụ AI đàm thoại của riêng họ. Các công ty công nghệ Hàn Quốc tin rằng dịch vụ của họ (hướng đến người dùng sử dụng tiếng Hàn) sẽ tốt hơn các dịch vụ sử dụng tiếng Anh.
Naver, một công ty internet hàng đầu tại Hàn Quốc, ngày 3/2 vừa qua cho biết sẽ triển khai dịch vụ AI đàm thoại của riêng mình mang tên "SearchGPT" ngay trong nửa đầu năm 2023 nhằm mang lại trải nghiệm tìm kiếm trên web thuận tiện hơn cho người dùng. Công ty cũng đã thiết lập quan hệ đối tác với Samsung vào tháng 12/2022 để cùng phát triển các giải pháp bán dẫn AI.
Điều này một phần nhờ nhu cầu ngày càng tăng tại các trung tâm xử lý đối với chip bộ nhớ hiệu suất cao (có thể xử lý nhiều dữ liệu hơn khi công nghệ AI ngày càng trở nên phổ biến).
ChatGPT là một "Chatbot" hoặc "Dịch vụ AI đàm thoại" do Công ty OpenAI có trụ sở tại Mỹ ra mắt vào tháng 11/2022. Không giống như các dịch vụ AI dựa trên trò chuyện trước đây, ChatGPT đã chứng kiến sự gia tăng bùng nổ về nhu cầu trên toàn thế giới bởi tạo cảm giác như đang nói chuyện với một người thực, có kiến thức sâu rộng về nhiều chủ đề khác nhau.
Các chuyên gia cho biết ChatGPT cho thấy cách AI có thể đạt được khả năng ở cấp độ con người thông qua tiến bộ công nghệ. Dịch vụ này cũng đã thúc đẩy những tập đoàn công nghệ thông tin (CNTT) như Microsoft và Google tung ra các dịch vụ AI được thương mại hóa. Các chuyên gia cũng cho rằng ChatGPT không chỉ tạo ra những thay đổi tại các công ty CNTT mà còn mang lại lợi ích to lớn cho các nhà sản xuất chất bán dẫn bộ nhớ thông qua việc mở rộng các loại ứng dụng dựa trên AI khác nhau, chẳng hạn như nhận dạng giọng nói, dịch thuật, lái xe tự động và phân loại hình ảnh.
Một quan chức tại công ty sản xuất chip của Hàn Quốc cho biết: "Nhu cầu về chip bộ nhớ sử dụng cho máy chủ và trung tâm dữ liệu được thúc đẩy nhờ việc sử dụng ngày càng nhiều các dịch vụ điện toán đám mây. Tuy nhiên, chúng tôi hy vọng một thị trường mới sẽ đi tiên phong khi các dịch vụ AI như ChatGPT cuối cùng sẽ làm tăng nhu cầu mở rộng các trung tâm dữ liệu để xử lý trơn tru số lượng lớn thông tin dữ liệu". Quan chức này nhấn mạnh: "Đặc biệt là nhu cầu về chip bộ nhớ hiệu năng cao, chẳng hạn như bộ nhớ băng thông cao (HBM) hoặc bộ nhớ xử lý trong bộ nhớ (PIM)".
Samsung và SK hynix hiện đã phát triển hoặc cung cấp các sản phẩm để đáp ứng sự phát triển bùng nổ của thị trường bán dẫn bộ nhớ cho các dịch vụ AI. Công cụ theo dõi thị trường Gartner gần đây đã ước tính quy mô của thị trường chip AI sẽ tăng từ mức 22 tỷ USD (năm 2020) lên 86,1 tỷ USD vào năm 2026. Vào tháng 10/2022, Samsung, nhà sản xuất chip bộ nhớ hàng đầu thế giới, đã kết hợp với công ty thiết kế chip AMD có trụ sở tại Mỹ để phát triển công nghệ HBM-PIM kết hợp chip bộ nhớ với bộ xử lý AI. Công nghệ này có hiệu suất trung bình cao gấp hai lần và giảm mức tiêu thụ năng lượng xuống còn 1/2 so với các đơn vị xử lý đồ họa (GPU) thông thường.
Phát biểu với các nhà đầu tư tại một hội nghị diễn ra vào ngày 31/1 vừa qua, ông Kim Jae-june, Phó Chủ tịch điều hành bộ phận kinh doanh bộ nhớ của Samsung nhấn mạnh: "Chúng tôi hy vọng các dịch vụ AI tương tác sẽ có tác động tích cực đến nhu cầu bộ nhớ trong tương lai". Ông cũng cho biết thêm rằng các chip bộ nhớ hiệu suất cao sẽ được sản xuất cho các dịch vụ này.
SK hynix cũng đang đáp ứng nhu cầu ngày càng tăng về chip bộ nhớ hiệu năng cao bằng cách cung cấp chip HBM3 (có dung lượng lớn và tốc độ xử lý dữ liệu được cải thiện) của mình cho một công ty thiết kế chip hàng đầu toàn cầu kể từ tháng 6/2022. Phát biểu với các nhà đầu tư ngày 1/2 vừa qua, ông Park Myoung-soo, Trưởng bộ phận tiếp thị DRAM tại SK hynix, dự báo: "ChatGPT sẽ mang lại hiệu ứng lan tỏa lớn về khả năng mở rộng của các mô hình ngôn ngữ cũng như khả năng khái quát hóa và thương mại hóa AI trong cộng đồng".
Không chỉ ChatGPT và Bard của Google mà hiện các công ty Hàn Quốc cũng đang nghiên cứu tung ra các dịch vụ AI đàm thoại của riêng họ. Các công ty công nghệ Hàn Quốc tin rằng dịch vụ của họ (hướng đến người dùng sử dụng tiếng Hàn) sẽ tốt hơn các dịch vụ sử dụng tiếng Anh.
Naver, một công ty internet hàng đầu tại Hàn Quốc, ngày 3/2 vừa qua cho biết sẽ triển khai dịch vụ AI đàm thoại của riêng mình mang tên "SearchGPT" ngay trong nửa đầu năm 2023 nhằm mang lại trải nghiệm tìm kiếm trên web thuận tiện hơn cho người dùng. Công ty cũng đã thiết lập quan hệ đối tác với Samsung vào tháng 12/2022 để cùng phát triển các giải pháp bán dẫn AI.
Theo Genk