Mặt tối của những hệ thống siêu máy tính

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Các siêu máy tính đang ngày một mạnh hơn, nhưng đồng thời cũng ngốn một lượng điện năng khổng lồ, nếu không tiếp cận theo hướng mới, năng lực của các hệ thống này sẽ khó tiến xa hơn.

Kể từ năm 1964, thời điểm CDC 6600 – được xem như siêu máy tính đầu tiên trên thế giới – ra đời cho đến nay, một cuộc chạy đua được hình thành trong cộng đồng điện toán hiệu năng cao toàn cầu. Đó là cải thiện hiệu năng siêu máy tính, bằng bất kỳ giá nào.

Với các tiến bộ trong lĩnh vực tính toán, lưu trữ, hệ thống mạng và phần mềm, hiệu năng của các máy tính hàng đầu đã tăng gấp hàng nghìn tỷ lần kể từ khi CDC 6600 ra đời cho đến nay – từ mức hàng triệu phép tính dấu phẩy động mỗi giây (megaFLOPS) nay con số này đã đạt tới mức hàng quintillions phép tính mỗi giây (exaFLOPS). (1 quintillion bằng 1 tỷ tỷ).

Đứng đầu ngôi vương hiện nay là siêu máy tính của Mỹ có tên Frontier, với năng lực tính toán 1,102 exaFLOPS theo thang đo benchmark High Performance Linpack. Nhưng các cỗ máy với năng lực tính toán mạnh hơn cũng đang trong quá trình chế tạo và sẽ ra mắt trong tương lai không xa.

scom1-1666755678958-16667556793661113508870.png


Tuy nhiên, năng lực tính toán ngày càng gia tăng cũng phải đánh đổi với một yếu tố khác: tiêu thụ điện năng. Nếu chạy hết công suất, Frontier có thể tiêu tốn đến 40 MW điện năng, tương đương với mức tiêu thụ của 400.000 máy tính PC.

Nhưng giờ đây khi nhu cầu giảm thiểu phát thải đang ngày càng rõ ràng hơn cũng như việc chi phí điện năng đang tăng phi mã, ngành công nghiệp siêu máy tính đang phải đánh giá lại xem mục tiêu ban đầu của mình có còn đáng theo đuổi như trước.

Hiệu quả năng lượng đi đôi với hiệu năng

Đại học Cambridge là một trong những tổ chức đầu tiên quan tâm đến vấn đề này. Họ đang hợp tác với hãng Dell Technologies để phát triển nhiều siêu máy tính có thiết kế hướng đến yếu tố hiệu quả năng lượng.

Ví dụ Wilkes3, dù đứng thứ 100 trong bảng xếp hạng hiệu năng siêu máy tính nhưng hiện đang đứng thứ 3 trong Green500, bảng xếp hạng các siêu máy tính dựa trên chỉ số hiệu năng đối với mỗi Watt tiêu thụ.

Mặt tối của những hệ thống siêu máy tính - Ảnh 2.
Wilkes3, một trong các siêu máy tính “xanh” nhất thế giới hiện nay - Ảnh: Internet.

Tiến sĩ Paul Calleja, giám đốc Hoạt động Nghiên cứu Điện toán của Đại học Cambridge cho biết: “Chúng tôi không quan tâm đến các hệ thống lớn, bởi vì chúng được dành riêng cho các giải pháp cụ thể. Nhưng công nghệ bên trong chúng có thể được áp dụng rộng rãi và sẽ cho phép các hệ thống khác dù hoạt động chậm hơn nhưng có hiệu quả năng lượng cao hơn nhiều.” Điều đó sẽ giúp mở rộng khả năng tiếp cận của nhiều người đến các hệ thống hiệu năng cao, để đưa lĩnh vực điện toán tiến xa hơn hiện tại.

Những biến động gần đây về chi phí năng lượng toàn cầu càng làm việc vận hành các siêu máy tính khổng lồ trở nên đắt đỏ hơn, đặc biệt với các hệ thống có hiệu năng exascale.

Đối với Wilkes3, trường Cambridge thực hiện một số tinh chỉnh giúp cải thiện mức đô hiệu quả năng lượng của nó. Ví dụ, có thể hạ xung nhịp đối với một số bộ phận riêng biệt khi chạy, tùy thuộc vào tải công việc mà nó đang giải quyết, nhóm nghiên cứu có thể giảm mức điện năng tiêu thụ trong bộ phận đó xuống 20-30%.

Tuy nhiên, nó không giải quyết được triệt để vấn đề.Tiến sĩ Calleja cho biết: “Giảm xung nhịp sẽ giảm điện năng tiêu thụ nhiều hơn so với giảm hiệu năng, nhưng nó cũng làm thời gian hoàn thành tác vụ dài hơn. Vì vậy điều chúng ta cần không chỉ là giảm năng lượng tiêu thụ khi hoạt động mà còn cả năng lượng đối với mỗi tác vụ.

Phần mềm là vua

Không chỉ các tinh chỉnh cấu hình phần cứng dành cho những tải công việc cụ thể, còn có một số các tinh chỉnh khác về phần mềm và bộ lưu trữ cũng như các hệ thống liên quan như làm lạnh và thiết kế hệ thống tủ đựng. Tuy nhiên, tiến sĩ Calleja cho rằng, trọng tâm hàng đầu cho việc cải thiện hiệu quả năng lượng chính là phần mềm.

Mặt tối của những hệ thống siêu máy tính - Ảnh 3.
Các siêu máy tính hiện tại mới chỉ tập trung vào phần cứng mà chưa tối ưu phần mềm - Ảnh: Internet.

Phần cứng không phải là vấn đề, mà là ở hiệu quả của ứng dụng. Đây sẽ là một nút thắt quan trọng để tiến về phía trước.” Ông cho biết. “Các hệ thống exascale ngày nay đều dựa trên kiến trúc GPU và số lượng các ứng dụng có thể chạy hiệu quả trên các hệ thống GPU là rất nhỏ.”

Đây là một vấn đề của lịch sử. Những nhà sản xuất siêu máy tính thường chỉ tập trung vào phần cứng, bởi vì như ông Calleja nói: “Đó là điều dễ dàng, bạn chỉ cần mua một con chip nhanh hơn. Bạn không phải suy nghĩ nhiều về điều đó.

Khi chúng ta có Định luật Moore với sức mạnh bộ xử lý tăng gấp đôi sau mỗi 18 tháng, bạn không phải làm bất cứ điều gì (về phần mềm) để gia tăng hiệu năng. Nhưng những ngày đó đã qua rồi. Giờ đây nếu chúng ta muốn tiến về phía trước, chúng ta phải lùi lại và cấu trúc lại phần mềm.

Đó là điều mà ông Calleja muốn ca ngợi Intel. Khi phần cứng máy chủ đang ngày càng đa dạng hơn do có nhiều nhà cung cấp hơn, làm cho sự tương thích về phần mềm cũng trở nên phức tạp hơn, nhưng Intel đang phát triển một giải pháp để khắc phục vấn đề này.

Điều khác biệt tôi thấy ở Intel là họ đầu tư nhiều (thời gian và tiền bạc) vào một hệ sinh thái API, để phát triển khả năng tương thích của những dòng code đối với các loại silicon khác nhau. Đó là loại chuỗi công cụ mà chúng tôi cần, để các ứng dụng trong tương lai có thể tận dụng những loại silicon mới nổi.

Một tương lai Zettascale

Hiện tại, với sự sụp đổ của cột mốc exascale, sự chú ý của cộng đồng siêu máy tính đang hướng tới một cột mốc mới: zettascale – mức hiệu năng gấp hàng nghìn lần hiệu năng exascale hiện tại.

Mặt tối của những hệ thống siêu máy tính - Ảnh 4.
Zetta-, cấp độ với 21 số 0 sau số 1 - Nguồn: Internet.

Zettascale sẽ là đích đến tiếp theo của lĩnh vực này.”, ông Calleja cho biết. “Một cột mốc soi đường cho các công nghệ cần thiết để đạt được các bước tiến tiếp theo về điện toán, điều đang không thể làm được trong hiện tại.

Các cỗ máy nhanh nhất thế giới hiện nay đang quá đắt đỏ so với những gì bạn có được từ chúng, trong điều kiện các kết quả khoa học. Nhưng chúng lại rất quan trọng, bởi vì chúng cho thấy nghệ thuật của sự khả thi và giúp đưa cả ngành công nghiệp tiến về phía trước.

Để phát triển được các hệ thống có hiệu năng zettaFLOPS – mạnh hơn hàng nghìn lần so với những hệ thống hiện tại – với các tiêu chí bền vững và lâu dài, sẽ tùy thuộc vào các năng lực sáng tạo của cả ngành công nghiệp này. Gần như không có mối quan hệ đồng pha giữa hiệu năng và hiệu quả năng lượng, nhưng sẽ luôn tồn tại một tỷ lệ vàng giữa hiệu năng và mức năng lượng tiêu thụ, nơi các lợi ích mang lại cho xã hội có thể coi là phù hợp với chi phí phát thải của các siêu máy tính HPC.

Tất nhiên, sẽ mất nhiều thời gian và công sức để có được con số trong thực tế, nhưng theo đuổi ý tưởng này trong mỗi bước phát triển sẽ là hướng đi đúng đắn trong tương lai.

Theo Genk​
 
Bên trên