Chúng ta có nên lo lắng về việc AI ngày càng ngốn nhiều điện?

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Việc mở rộng sử dụng các mô hình AI lớn đòi hỏi số lượng lớn máy chủ mạnh, có thể tiêu thụ năng lượng ngang với cả một quốc gia.

Giữa nhiều cuộc tranh luận về mối nguy hiểm tiềm ẩn của trí tuệ nhân tạo, một số nhà nghiên cứu cho rằng một mối quan tâm quan trọng đang bị bỏ qua: năng lượng mà máy tính sử dụng để đào tạo và chạy các mô hình AI lớn.

Alex de Vries tại Trường Kinh doanh và Kinh tế VU Amsterdam cảnh báo rằng sự phát triển của AI đã sẵn sàng khiến nó trở thành nhân tố đóng góp đáng kể vào lượng khí thải carbon toàn cầu. Ông ước tính rằng nếu Google chuyển toàn bộ hoạt động kinh doanh tìm kiếm của mình sang AI, thì cuối cùng họ sẽ sử dụng 29,3 terawatt giờ mỗi năm – tương đương với mức tiêu thụ điện của Ireland và gần gấp đôi tổng mức tiêu thụ năng lượng của công ty là 15,4 terawatt giờ vào năm 2020. Google đã làm như vậy ' t trả lời yêu cầu bình luận.

851968_70849781223200_2118368064700416

Một mặt, có lý do chính đáng để không hoảng sợ. Việc thực hiện loại chuyển đổi đó trên thực tế là không thể, vì nó sẽ cần hơn 4 triệu chip máy tính mạnh mẽ được gọi là bộ xử lý đồ họa (GPU) hiện đang có nhu cầu rất lớn với nguồn cung hạn chế. Điều này sẽ tiêu tốn 100 tỷ USD, số tiền mà ngay cả túi tiền dồi dào của Google cũng phải chật vật để tài trợ.

Mặt khác, theo thời gian, mức tiêu thụ năng lượng của AI sẽ thực sự gây ra vấn đề. Nvidia, công ty bán 95% GPU được sử dụng cho AI, sẽ xuất xưởng 100.000 máy chủ A100 trong năm nay, có thể tiêu thụ tổng cộng 5,7 terrawatt giờ mỗi năm.

Mọi thứ có thể và có thể sẽ trở nên tồi tệ hơn theo thời giankhi các nhà máy sản xuất mới đi vào hoạt động và tăng năng lực sản xuất một cách đáng kể. Nhà sản xuất chip TSMC, nhà cung cấp cho Nvidia, đang đầu tư vào các nhà máy mới có thể cung cấp 1,5 triệu máy chủ mỗi năm vào năm 2027 và tất cả phần cứng đó có thể tiêu thụ 85,4 terawatt giờ năng lượng mỗi năm, de Vries cho biết.

Với việc các doanh nghiệp đang gấp rút tích hợp AI vào mọi loại sản phẩm, Nvidia có thể sẽ không gặp khó khăn gì trong việc giải phóng hàng tồn kho của mình. Nhưng de Vries cho rằng điều quan trọng là AI phải được sử dụng tiết kiệm vì chi phí môi trường cao.

“Mọi người có công cụ mới này và họ nói, 'Được rồi, thật tuyệt, chúng tôi sẽ sử dụng nó' mà không quan tâm liệu họ có thực sự cần nó hay không," anh nói. “Họ quên hỏi hoặc tự hỏi liệu người dùng cuối có nhu cầu về điều này theo cách nào đó hay nó sẽ giúp cuộc sống của họ tốt hơn. Và tôi nghĩ rằng sự mất kết nối cuối cùng mới là vấn đề thực sự.”

Sandra Wachter tại Đại học Oxford cho biết người tiêu dùng nên biết rằng việc sử dụng những mẫu này sẽ phải trả giá. Wachter nói: “Đó là một trong những chủ đề thực sự khiến tôi mất ngủ hàng đêm. “Chúng tôi chỉ tương tác với công nghệ và thực sự không biết cần bao nhiêu tài nguyên – điện, nước, không gian –.” Bà nói: Pháp luật buộc phải minh bạch về tác động môi trường của các mô hình sẽ thúc đẩy các công ty hành động có trách nhiệm hơn.

Người phát ngôn của OpenAI, nhà phát triển ChatGPT, nói với New Scientist: “Chúng tôi nhận thấy việc đào tạo các mô hình lớn có thể tiêu tốn nhiều năng lượng và là một trong những lý do khiến chúng tôi không ngừng nỗ lực để nâng cao hiệu quả. Chúng tôi đã suy nghĩ kỹ lưỡng về cách sử dụng tốt nhất sức mạnh tính toán của mình.”

Thomas Wolf, đồng sáng lập công ty AI Hugging Face, cho biết: Có những dấu hiệu cho thấy các mô hình AI nhỏ hơn hiện đang tiếp cận khả năng của các mô hình lớn hơn, điều này có thể mang lại sự tiết kiệm năng lượng đáng kể. Ông nói, Mistral 7B và Llama 2 của Meta nhỏ hơn GPT4, AI đằng sau ChatGPT, từ 10 đến 100 lần và có thể thực hiện nhiều điều tương tự. “Không phải ai cũng cần GPT4 cho mọi thứ, cũng giống như bạn không cần một chiếc Ferrari để đi làm.”

Người phát ngôn của Nvidia cho biết việc chạy AI trên GPU của họ sẽ tiết kiệm năng lượng hơn so với loại chip thay thế được gọi là CPU. Họ cho biết: “Tính toán tăng tốc trên công nghệ Nvidia là mô hình tính toán tiết kiệm năng lượng nhất cho AI và các khối lượng công việc khác của trung tâm dữ liệu”. “Sản phẩm của chúng tôi có hiệu suất cao hơn và tiết kiệm năng lượng hơn qua mỗi thế hệ mới.”

Theo VN review​
 
Bên trên