Tại sao AI lại ngốn tiền khủng khiếp đến vậy

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Hơn 18 tháng khi AI bùng lên như cơn sốt, nhiều công ty công nghệ lớn (Big Tech) đang chứng minh rằng AI có thể là động lực thúc đẩy doanh thu thực sự nhưng đó cũng là một hố đốt tiền khổng lồ.

1719910837403-png.9109

Google và Microsoft đã báo cáo doanh thu hàng quý từ đám mây tăng vọt do khách hàng doanh nghiệp chi nhiều hơn cho các dịch vụ AI. Meta, dù chậm hơn trong việc kiếm tiền từ công nghệ, cho biết những nỗ lực AI của họ đã giúp tăng cường mức độ tương tác của người dùng và quảng cáo.
Để đạt được những lợi ích ban đầu này, ba Big Tech đã chi hàng tỷ USD để phát triển AI và họ có kế hoạch tăng cường các khoản đầu tư đó hơn nữa.

Vào ngày 25/4, Microsoft cho biết họ đã chi 14 tỷ USD trong quý gần đây nhất và dự kiến những chi phí đó sẽ “tăng đáng kể”, một phần do đầu tư vào cơ sở hạ tầng AI. Alphabet cho biết họ đã chi 12 tỷ USD trong quý vừa qua, tăng 91% so với một năm trước đó và dự kiến thời gian còn lại của năm sẽ “bằng hoặc cao hơn” mức đầu tư của quý vừa qua vì hãng tập trung vào các cơ hội về AI. Trong khi đó, Meta đã nâng ước tính đầu tư trong năm và dự tính mức đầu tư sẽ từ 35 tỷ USD đến 40 tỷ USD, tăng 42%. Theo Meta, nghiên cứu AI và phát triển sản phẩm là những lý do chính dẫn đến sự gia tăng đầu tư gần đây.

Chi phí AI ngày càng tăng đã khiến một số nhà đầu tư lo ngại. Đặc biệt, cổ phiếu của Meta sụt giảm do dự báo chi tiêu kết hợp với tốc độ tăng trưởng doanh số bán hàng chậm hơn dự kiến. Nhưng trong ngành công nghệ, từ lâu người ta đã tin rằng chi phí AI sẽ tăng lên. Có hai lý do chính giải thích cho điều đó: Các mô hình AI ngày càng lớn hơn và tốn kém hơn để phát triển; Nhu cầu toàn cầu về dịch vụ AI đòi hỏi phải xây dựng thêm nhiều trung tâm dữ liệu để hỗ trợ.

Các doanh nghiệp đang thử nghiệm các dịch vụ AI có thể phải chi hàng triệu USD để tùy chỉnh các sản phẩm từ OpenAI hoặc Google. Sau khi thiết lập và chạy, sẽ có thêm chi phí mỗi khi ai đó gửi tin nhắn đến chatbot hoặc yêu cầu dịch vụ AI phân tích dữ liệu bán hàng. Nhưng công việc tốn kém hơn là xây dựng nền tảng cho các hệ thống AI đó. Dưới đây là một số lý do khiến AI ngày càng tốn kém.

Mô hình ngôn ngữ lớn ngày càng lớn hơn

Các sản phẩm AI nổi tiếng nhất hiện nay như ChatGPT của OpenAI được hỗ trợ bởi các mô hình ngôn ngữ lớn (LLM), các hệ thống được cung cấp lượng dữ liệu khổng lồ bao gồm sách, bài báo và nhận xét trực tuyến, để đưa ra phản hồi tốt nhất có thể cho các truy vấn của người dùng. Nhiều công ty AI hàng đầu đang đánh cược rằng con đường hướng tới trí tuệ nhân tạo phức tạp hơn - có lẽ ngay cả những hệ thống AI có thể vượt trội hơn con người trong nhiều nhiệm vụ - là làm cho những mô hình ngôn ngữ lớn này thậm chí còn lớn hơn.

1719910960099.png


Điều đó đòi hỏi phải thu thập nhiều dữ liệu hơn, nhiều sức mạnh tính toán hơn và đào tạo hệ thống AI lâu hơn. Trong một cuộc phỏng vấn vào đầu tháng 4, Dario Amodei, giám đốc điều hành của Anthropic, đối thủ của OpenAI, cho biết loạt mô hình AI hiện tại trên thị trường có chi phí đào tạo khoảng 100 triệu USD.

“Các mô hình LLM hiện đang được đào tạo và sẽ ra mắt vào nhiều thời điểm khác nhau vào cuối năm nay hoặc đầu năm sau có giá gần 1 tỷ USD. Sau đó, tôi nghĩ vào năm 2025 và 2026, các mô hình LLM sẽ còn tốn kém nhiều hơn nữa, khoảng 5 hoặc 10 tỷ USD”, Dario Amodei nói.

Chip và chi phí điện toán

Phần lớn chi phí cho LLM liên quan đến chip. Đây không phải là những bộ xử lý trung tâm (CPU) đã làm nên danh tiếng của tập đoàn Intel hay những chip dành cho smartphone. Để đào tạo các mô hình ngôn ngữ lớn, các công ty AI dựa vào các bộ vi xử lý đồ họa (GPU) có thể xử lý lượng dữ liệu khổng lồ ở tốc độ cao. Những con chip này không chỉ khan hiếm mà còn cực kỳ đắt đỏ, với những tính năng tiên tiến nhất được sản xuất chủ yếu bởi một công ty duy nhất: Nvidia Corp.

Chip đồ họa H100 của Nvidia, tiêu chuẩn vàng để huấn luyện các mô hình AI ở thời điểm hiện nay, đã được bán với giá ước tính khoảng 30.000 USD và một số đại lý chào bán chúng với giá gấp nhiều lần số tiền đó. Và các công ty công nghệ lớn cần mua rất nhiều con chip H100. Giám đốc điều hành Meta Zuckerberg trước đây cho biết công ty của ông có kế hoạch mua 350.000 chip H100 vào cuối năm nay để hỗ trợ các nỗ lực nghiên cứu AI. Ngay cả khi Meta được giảm giá khi mua số lượng lớn, số tiền đó dễ dàng lên tới hàng tỷ đô la.

Các công ty có thể thực hiện huấn luyện các mô hình AI mà không cần mua chip của Nvidia nhưng việc thuê chip đủ khả năng cũng rất tốn kém. Đơn cử, bộ phận đám mây của Amazon cung cấp dịch vụ cho các hãng lớn thuê cụm chip Intel với giá khoảng 6 USD/giờ. Trong khi đó, cụm chip Nvidia H100 có giá thuê gần 100 USD một giờ.

Tháng trước, Nvidia đã tiết lộ thiết kế bộ xử lý mới có tên Blackwell, xử lý các mô hình ngôn ngữ lớn nhanh hơn nhiều lần và dự kiến sẽ có giá tương tự như H100. Nvidia cho biết sẽ cần khoảng 2.000 GPU Blackwell để đào tạo mô hình AI có 1,8 nghìn tỷ tham số. Đó là quy mô ước tính của GPT-4 của OpenAI. Để so sánh, Nvidia cho biết họ cần 8.000 GPU H100 để thực hiện nhiệm vụ tương tự. Nhưng sự cải thiện đó có thể được bù đắp bằng nỗ lực xây dựng các mô hình AI lớn hơn trong ngành.

Các trung tâm dữ liệu

Các công ty mua những con chip để đào tạo AI của Nvidia còn cần một nơi đó để đặt chúng. Meta, cùng với các công ty điện toán đám mây lớn nhất gồm Amazon, Microsoft và Google đang chạy đua để xây dựng các trang trại máy chủ mới. Những trang trại máy chủ hay còn gọi là trung tâm dữ liệu này chứa các ổ đĩa cứng, bộ xử lý, hệ thống làm mát, các thiết bị điện và máy phát điện dự phòng.

1719910906114.png


Dell'Oro Group, một nhà nghiên cứu, ước tính rằng các công ty công nghệ sẽ chi 294 tỷ USD để xây dựng và trang bị các trung tâm dữ liệu trong năm nay, tăng từ mức 193 tỷ USD vào năm 2020.

Theo dữ liệu từ DC Byte, một công ty nghiên cứu thị trường, trên toàn cầu hiện có hơn 7.000 trung tâm dữ liệu, bao gồm các cơ sở đang ở các giai đoạn phát triển khác nhau, tăng từ mức 3.600 vào năm 2015. Những cơ sở này cũng ngày càng lớn hơn đáng kể. Theo DC Byte, quy mô trung bình của các tòa nhà trung tâm dữ liệu trên toàn thế giới hiện là 125.000 m2, tăng gần gấp 5 lần kể từ năm 2010.

Bản quyền dữ liệu và nhân tài

Trong khi chip và trung tâm dữ liệu chiếm phần lớn chi phí, một số công ty AI cũng đang chi hàng triệu USD để cấp phép dữ liệu từ các nhà xuất bản.

OpenAI đã đạt được thỏa thuận với một số nhà xuất bản châu Âu để kết hợp nội dung tin tức của họ vào ChatGPT và đào tạo các mô hình AI của mình. Các điều khoản tài chính của các thỏa thuận này chưa được tiết lộ, nhưng Bloomberg trước đó đưa tin rằng OpenAI đã đồng ý trả hàng chục triệu euro cho Axel Springer SE, nhà xuất bản Politico và Business Insider của Đức, để có quyền sử dụng các bài báo của các hãng tin này. OpenAI cũng đã tổ chức các cuộc đàm phán với Time, CNN và Fox News để được phép sử dụng nội dung cho đào tạo AI.

Trong khi OpenAI tích cực hơn trong việc đảm bảo các thỏa thuận cấp phép, các công ty công nghệ lớn cũng đang tìm cách thu thập dữ liệu ngôn ngữ mà họ cần để xây dựng các công cụ AI hấp dẫn. Google đã đạt được thỏa thuận trị giá 60 triệu USD để được cấp phép dữ liệu từ Reddit, Reuters đưa tin. Và các nhân viên của Meta được cho là đã thảo luận về việc mua nhà xuất bản sách Simon & Schuster, New York Times đưa tin.

Các công ty công nghệ cũng đang bị cuốn vào cuộc chiến tranh giành nhân tài AI. Vào một thời điểm năm ngoái, Netflix đã đăng tuyển vị trí quản lý sản phẩm AI với mức lương lên tới 900.000 USD.

Các cách tiếp cận mới chi phí rẻ hơn

Microsoft, công ty đã nỗ lực nhiều nhất để thúc đẩy sự điên cuồng xung quanh các mô hình ngôn ngữ lớn, gần đây cho biết họ sẽ thử một cách tiếp cận khác. Công ty đã giới thiệu ba mô hình AI nhỏ hơn, cần ít nguồn lực tính toán hơn.

Microsoft cho biết các mô hình ngôn ngữ lớn “vẫn sẽ là tiêu chuẩn vàng để giải quyết nhiều loại nhiệm vụ phức tạp”, chẳng hạn như “lý luận nâng cao, phân tích dữ liệu và hiểu biết về ngữ cảnh”. Nhưng các mô hình nhỏ hơn có thể đủ đáp ứng cho một số khách hàng và các trường hợp sử dụng cụ thể. Các công ty khác, bao gồm Sakana AI, một công ty khởi nghiệp do hai cựu nhân viên Google thành lập, cũng đang tập trung vào các mô hình nhỏ hơn.

Rowan Curran, nhà phân tích cao cấp chuyên về AI tại Forrester Research, cho biết: “Bạn không cần một chiếc xe thể thao mọi lúc. Đôi khi bạn cần một chiếc xe tải nhỏ hoặc xe bán tải. Nó sẽ không phải là một loại mô hình rộng rãi mà mọi người đều sử dụng cho mọi trường hợp sử dụng.”

Tuy nhiên, hiện tại, quan điểm thông thường trong thế giới AI là càng lớn thì càng tốt. Điều đó đòi hỏi chi phí đầu tư cực kỳ tốn kém.

Theo VN review
 
Bên trên