Ark Invest: Tình hình hiện tại và tương lai của hạ tầng AI

Nguồn: Frank Downing, Ark Invest; Biên dịch: Kim sắc tài chính Claw

Chi tiêu cho hạ tầng AI đang tăng bùng nổ

Trong ba năm kể từ khi ChatGPT ra mắt, nhu cầu về điện toán tăng tốc đã tăng bùng nổ. Doanh thu hằng năm của Nvidia đã tăng gần 8 lần, từ 27 tỷ USD năm 2022 lên 216 tỷ USD năm 2025; kỳ vọng đồng thuận cho năm 2026 là tăng thêm 62%, đạt 350 tỷ USD. Tốc độ đầu tư hệ thống trung tâm dữ liệu toàn cầu (bao gồm phần cứng tính toán, mạng và lưu trữ) đã tăng từ mức tăng trưởng bình quân hằng năm 5% trong 10 năm tính đến năm 2022 lên mức 30% trong ba năm qua; dự kiến đến năm 2026 sẽ tiếp tục tăng hơn 30%, đạt 653 tỷ USD.

Nghiên cứu của ARK cho thấy, điện toán tăng tốc (so với CPU đa dụng) hiện đã do điện toán tăng tốc được thúc đẩy bởi GPU và mạch tích hợp chuyên dụng cho AI (ASIC) chiếm ưu thế trong đầu tư máy chủ, với tỷ trọng 86% doanh số bán máy chủ tính toán.

Giảm chi phí thúc đẩy việc áp dụng tăng tốc

Các động lực làm gia tăng liên tục chi tiêu cho hạ tầng điện toán tăng tốc cần thiết để chạy mô hình AI đến từ việc các kịch bản sử dụng AI tạo sinh trên cả phía người dùng tiêu dùng và doanh nghiệp không ngừng mở rộng, cùng với nhu cầu huấn luyện các mô hình nền tảng ngày càng thông minh hơn trong quá trình theo đuổi “siêu trí tuệ”.

Việc chi phí giảm nhanh đang tiếp tục tăng tốc đà tăng trưởng nhu cầu. Theo nghiên cứu của chúng tôi, chi phí huấn luyện AI giảm 75% mỗi năm. Chi phí suy luận giảm còn nhanh hơn—trong các bài benchmark do Artificial Analysis theo dõi, các mô hình có điểm số vượt 50% có mức giảm theo năm của chi phí tính theo mốc trung vị lên tới 95%.

Hai lực lượng cùng nhau làm chi phí giảm mạnh: thứ nhất, các nhà lãnh đạo trong ngành như Nvidia mỗi năm tung ra sản phẩm mới, tạo ra bước nhảy về hiệu năng phần cứng qua từng thế hệ; thứ hai, các cải tiến ở tầng phần mềm—những tiến bộ về thuật toán—làm cho hiệu suất huấn luyện và suy luận trên cùng một phần cứng tiếp tục được nâng cao.

Người tiêu dùng và doanh nghiệp đều phát tín hiệu nhu cầu mạnh

Tốc độ doanh số ứng dụng AI của người tiêu dùng rõ ràng nhanh hơn tốc độ mà ngày trước họ áp dụng internet. Tỷ lệ phổ cập AI trong vòng ba năm đã mở rộng lên khoảng 20%, gấp hơn hai lần tốc độ chuyển đổi của người tiêu dùng sang internet.

Nhu cầu của doanh nghiệp cũng tăng với tốc độ đáng kinh ngạc. Chẳng hạn, theo dữ liệu của OpenRouter, từ tháng 12/2024 đến nay, nhu cầu token đã tăng 28 lần.

Trong hai năm qua, phòng thí nghiệm AI được khách hàng doanh nghiệp ưa chuộng nhất là Anthropic đã đạt mức tăng doanh thu ấn tượng khoảng 100 lần—từ 100 triệu USD doanh thu hoạt động niên hóa cuối năm 2023, tăng lên 8 đến 10 tỷ USD ước tính cuối năm 2025. Đà tăng của Anthropic trong năm 2026 vẫn đang tiếp diễn: chỉ trong tháng Hai năm nay, công ty công bố doanh thu niên hóa đạt 14 tỷ USD và hoàn tất một vòng gọi vốn trị giá 30 tỷ USD, định giá đạt 380 tỷ USD.

OpenAI, công ty đang cạnh tranh đồng thời trên hai mặt trận người tiêu dùng và doanh nghiệp, cũng ghi nhận mức tăng mạnh trong nhóm người dùng doanh nghiệp: tính đến tháng 11/2025 đã có 1 triệu khách hàng doanh nghiệp. Theo lời Giám đốc tài chính Sarah Friar, tốc độ tăng doanh thu từ doanh nghiệp của OpenAI nhanh hơn mảng người tiêu dùng, và dự kiến đến năm 2026 sẽ chiếm 50% tổng doanh thu của công ty. Friar cũng nêu rõ trong một bài blog hồi tháng 1/2026 lý do cho các khoản đầu tư tiếp theo vào hạ tầng: trong ba năm qua, doanh thu của OpenAI và năng lực tính toán của họ đã tăng theo tỷ lệ thuận.

Thị trường tư nhân cung cấp vốn cho xây dựng AI

Để đáp ứng các tín hiệu nhu cầu mạnh, đầu tư quy mô lớn vào hạ tầng đã trở thành điều cần thiết. Theo dữ liệu Crunchbase, năm 2025, vốn đầu tư cho các phòng thí nghiệm AI tư nhân vượt 200 tỷ USD, trong đó khoảng 80 tỷ USD chảy vào các nhà phát triển mô hình nền tảng như OpenAI, Anthropic và xAI. Trên thị trường công khai, các doanh nghiệp điện toán đám mây quy mô siêu lớn đang huy động dự trữ tiền mặt và tìm kiếm các phương thức tài trợ khác để hỗ trợ kế hoạch chi tiêu vốn cho AI—quy mô chi tiêu này có thể lên tới 700 tỷ USD vào năm 2026.

Theo báo cáo, thương vụ 30 tỷ USD giữa Meta và Blue Owl là giao dịch vốn tư nhân có quy mô lớn nhất từ trước đến nay. Thương vụ này được cấu trúc dưới hình thức công ty liên doanh, chủ yếu dựa trên tài trợ bằng nợ; cấu trúc của phương tiện mục đích đặc biệt (SPV) sẽ khiến khoản nợ của dự án không xuất hiện trên bảng cân đối kế toán của Meta, điều này đã gây ra không ít tranh cãi.

AMD và các nhà sản xuất khác trở thành đối thủ cạnh tranh mạnh của Nvidia

Ngoài các trung tâm dữ liệu vật lý, chip tính toán luôn là cốt lõi của chi tiêu vốn cho AI. Nvidia vẫn dẫn đầu trong kỷ nguyên điện toán tăng tốc, nhưng hiện bên mua chip AI lớn nhất đang tìm cách nâng cao mức sức mạnh tính toán AI nhận được cho mỗi đồng đầu tư. Từ khi mua lại ATI Technologies vào năm 2006, Tập đoàn Bán dẫn Siêu việt (AMD) luôn song hành với Nvidia trong việc bán GPU ra thị trường tiêu dùng; nay công ty cũng đang trở thành một đối thủ cạnh tranh nổi lên ở thị trường doanh nghiệp. Kể từ khi ra mắt bộ xử lý dòng EPYC vào năm 2017, thị phần của AMD trong thị trường CPU máy chủ đã tăng từ gần như bằng 0 năm 2017 lên 40% vào năm 2025.

Đối với suy luận mô hình nhỏ, GPU AMD đã cân bằng với Nvidia về hiệu năng tương đối trên tổng chi phí sở hữu (TCO). TCO đồng thời tính đến chi phí mua chip ban đầu (chi tiêu vốn) và chi phí vận hành của chip trong suốt vòng đời sử dụng (chi tiêu hoạt động). Benchmark hiệu năng sử dụng chỉ số InferenceMax của SemiAnalysis, lấy số token xử lý mỗi giây trên mỗi GPU khi tối ưu hóa theo thông lượng làm thước đo; benchmark chi phí sử dụng ước tính của SemiAnalysis cho chi tiêu vốn và chi tiêu hoạt động theo từng giờ.

Mặc dù AMD đã “đuổi kịp” về hiệu năng mô hình nhỏ, Nvidia vẫn duy trì khoảng cách dẫn đáng kể về hiệu năng mô hình lớn, như thể hiện trong hình dưới đây.

Giải pháp theo dạng rack của Nvidia Grace Blackwell nối mạng 72 GPU Grace Blackwell (GB200), khiến chúng vận hành như một GPU quy mô cực lớn dùng chung bộ nhớ. Sự liên kết chặt chẽ giữa các chip này giúp tăng cường khả năng suy luận cho mô hình lớn—mô hình lớn cần phân bổ trọng số mô hình trên nhiều GPU hơn, đòi hỏi băng thông truyền thông lớn hơn so với mô hình nhỏ. Để thu hẹp khoảng cách trước khi Nvidia Vera Rubin ra mắt, kế hoạch giải pháp theo dạng rack của AMD sẽ được tung ra vào nửa sau năm 2026. Tính đến nay, AMD đã giành được các đơn hàng từ các khách hàng như Microsoft, Meta, OpenAI, xAI và Oracle.

Các nhà cung cấp đám mây quy mô cực lớn dẫn dắt cuộc cách mạng chip tùy chỉnh

Ngoài các nhà cung cấp GPU thương mại, các nhà cung cấp đám mây quy mô cực lớn và các phòng thí nghiệm AI cũng muốn tự phát triển chip để hạn chế ảnh hưởng của Nvidia và giảm chi phí điện toán AI. Trong hơn mười năm, Google luôn thiết kế mạch tích hợp chuyên dụng cho AI của riêng mình—đơn vị xử lý tensor (TPU)—để chạy các mô hình gợi ý cho mảng tìm kiếm của họ, và trên thế hệ TPU v7 mới nhất đã tối ưu hiệu năng cho AI tạo sinh. SemiAnalysis ước tính rằng, nhờ tự phát triển TPU để xử lý khối lượng công việc nội bộ, chi phí cho mỗi lần tính toán của Google thấp hơn Nvidia 62%. Anthropic và Meta đang dùng các bản mở rộng TPU của Google để tăng năng lực tính toán; điều này có thể phần nào chứng thực rằng ước tính 62% không quá xa so với thực tế.

Chip Trainium của Amazon dường như là một giải pháp đi sau ít hơn về mặt tiên tiến. Sau khi mua lại Annapurna Labs vào năm 2015, Amazon đi đầu trong việc phát triển chip tùy chỉnh cho mảng điện toán đám mây của mình; họ mở rộng cả CPU Graviton dựa trên kiến trúc ARM và bộ xử lý dữ liệu Nitro (DPU), nhằm tạo nền tảng cho năng lực tính toán quan trọng của Amazon Web Services (AWS). Gần đây Amazon công bố rằng, từ năm 2025, Graviton đã liên tục năm thứ ba cung cấp hơn một nửa năng lực CPU tính toán mới gia tăng cho AWS. Ngoài việc sử dụng TPU, Anthropic cũng coi AWS và Trainium là nền tảng huấn luyện ưu tiên của mình.

Microsoft mãi đến năm 2023 mới đi sau nhưng lao vào lĩnh vực chip tùy chỉnh, công bố bộ tăng tốc AI Maia 100; tuy nhiên thời điểm đó chưa tập trung vào AI tạo sinh. Hiện tại, thế hệ sản phẩm thứ hai của họ đang được tung ra, tập trung chủ yếu cho các kịch bản suy luận AI.

Broadcom dẫn dắt thị trường dịch vụ chip tùy chỉnh

Google và Amazon tập trung vào thiết kế chip phía trước (kiến trúc và chức năng), trong khi các đối tác thiết kế phía sau chịu trách nhiệm chuyển logic thành wafer silicon, quản lý đóng gói tiên tiến và phối hợp sản xuất với các nhà gia công wafer như TSMC. Trong bối cảnh mảng kinh doanh gia công wafer của Intel gặp thách thức, TSMC đã trở thành đối tác gia công được lựa chọn hàng đầu cho hầu hết các dự án chip AI lớn, còn Broadcom trở thành đối tác thiết kế phía sau dẫn đầu cho Google TPU, Meta MTIA và chip tùy chỉnh mà OpenAI dự kiến ra mắt vào năm 2026. Apple luôn tự lực tự cường hoàn thành thiết kế trọn quy trình cho chip điện thoại và PC của mình, nhưng có báo cáo rằng họ cũng có thể đang hợp tác với Broadcom để phát triển chip AI. Citi dự đoán doanh thu AI của Broadcom trong hai năm tới có thể tăng gấp năm, từ 20 tỷ USD năm 2025 lên 100 tỷ USD vào năm 2027.

Lộ trình nghiên cứu phát triển của Trainium ở Amazon khá đặc biệt so với các đối thủ—theo báo cáo, Trainium 2 hợp tác với Marvell, sau đó do Marvell thực thi không tốt mà Trainium 3 và Trainium 4 chuyển sang hợp tác với Alchip. Việc Amazon có thể thay đổi đối tác phía sau cho thấy rủi ro thực sự tồn tại đối với các công ty như Broadcom khi triển khai tích hợp theo chiều dọc. Cần lưu ý rằng Apple và Tesla làm việc trực tiếp với các nhà gia công wafer. Google trên TPU v8 của mình có thể cũng sẽ đi theo cách tương tự—sản phẩm này có hai SKU: một SKU do Broadcom đồng thiết kế, và một SKU do Google tự thiết kế và kiểm soát độc lập dưới sự hỗ trợ của MediaTek.

Hoạt động của các công ty khởi nghiệp chip đang sôi động hơn

Nghiên cứu của chúng tôi cho thấy, một lực lượng “đuôi dài” gồm các công ty khởi nghiệp thử nghiệm những mô hình kiến trúc mới có thể tiếp tục thách thức vị thế thị trường của các nhà sản xuất chip hiện tại. Cerebras nổi tiếng với động cơ dạng wafer (một chip khổng lồ được làm từ một tấm wafer silicon đơn, kích thước cỡ hộp pizza), cung cấp tốc độ xử lý token mỗi giây nhanh nhất trên thị trường; theo báo cáo, công ty đang lên kế hoạch ra mắt trong năm nay. Công ty gần đây công bố hợp tác với OpenAI để phát triển mô hình lập trình tốc độ cao Codex Spark; trước đó, hai bên đã đạt thỏa thuận hợp tác vào tháng 1 năm nay. Groq cũng nhờ hiệu suất xử lý token mỗi giây xuất sắc mà gần đây đã ký một thỏa thuận cấp phép sở hữu trí tuệ không độc quyền trị giá 20 tỷ USD với Nvidia, thỏa thuận này bao gồm 90% nhân sự của Groq và CEO đồng thời đồng sáng lập TPU Jonathan Ross. Về thực chất, đây là một thương vụ “mua lại” đối với đội ngũ và công nghệ của Groq; cấu trúc giao dịch kiểu này ngày càng phổ biến trên thị trường M&A vì các gã khổng lồ công nghệ muốn tránh chậm trễ do việc bị rà soát của cơ quan quản lý. Ở các diễn biến M&A khác, Intel gần đây—sau khi theo báo cáo thất bại trong các cuộc đàm phán mua lại—đã chuyển sang thiết lập hợp tác với SambaNova. Intel từ năm 2014 đã tiến hành bốn thương vụ mua lại trong lĩnh vực AI nhưng vẫn không thể cho ra mắt sản phẩm AI được thị trường rộng rãi công nhận; thành tích này khá đáng tiếc.

Triển vọng tương lai: Quy mô năm 2030 đạt 1,4 nghìn tỷ USD

Theo nghiên cứu của chúng tôi, tăng trưởng bền vững nhu cầu trong năm năm tới và sự cải thiện liên tục về hiệu năng sẽ thúc đẩy sự phát triển của phần mềm AI và các dịch vụ đám mây; chi tiêu cho hạ tầng AI trong năm năm tới sẽ tăng gấp ba—từ 500 tỷ USD năm 2025 lên gần 1,5 nghìn tỷ USD vào năm 2030.

Dự báo của chúng tôi dựa trên quan sát lịch sử về đầu tư hệ thống trung tâm dữ liệu so với doanh thu phần mềm. Đầu thập niên 2010, khi điện toán đám mây nổi lên, đầu tư hệ thống chiếm khoảng 50% chi tiêu phần mềm toàn cầu. Đến năm 2021, do tình trạng đầu tư quá mức sau đại dịch Covid-19 và việc khách hàng tối ưu hóa, tỷ lệ đầu tư hệ thống so với chi tiêu phần mềm giảm xuống mức thấp dưới 20%. Dự báo 1,5 nghìn tỷ USD của chúng tôi giả định rằng, đến năm 2030, mức đầu tư sẽ bằng 20% kịch bản dự báo trung tính của chúng tôi về chi tiêu phần mềm toàn cầu (tức là 70 nghìn tỷ USD vào tháng 7 năm 2030); tỷ lệ này đã được trình bày chi tiết trong một bài blog mà chúng tôi đăng tải năm ngoái. Chúng tôi cho rằng mức 20% đã phản ánh đầy đủ rủi ro đầu tư quá mức tiềm ẩn trước năm 2030 và cả khả năng tăng trưởng doanh thu phần mềm chậm hơn so với kịch bản trung tính—trong trường hợp sau, chúng tôi tin rằng đầu tư hạ tầng sẽ tiếp tục duy trì tốc độ tăng trưởng cao, tương tự như bối cảnh đầu thập niên 2010.

Khi nhu cầu về năng lực tính toán do AI thúc đẩy tiếp tục tăng, chúng tôi dự đoán tỷ trọng chip tùy chỉnh trong chi tiêu tính toán sẽ tiếp tục tăng—vì thời gian và nguồn lực cần để thiết kế chip tối ưu cho các khối lượng công việc cụ thể sẽ thể hiện ngày càng rõ lợi thế hiệu năng tính theo mỗi đồng đô la khi mở rộng quy mô. Chúng tôi cho rằng đến năm 2030, tỷ trọng của ASIC tùy chỉnh trên thị trường tính toán có thể vượt quá một phần ba.

Nhìn tổng thể, nghiên cứu của chúng tôi cho thấy việc xây dựng hạ tầng đang diễn ra hiện không phải là một bong bóng sắp vỡ, mà là nền tảng của một thay đổi mang tính đột phá theo cấp độ nền tảng—hiếm có một lần trong một thiên niên kỷ. ARK dự báo chi tiêu hạ tầng AI hằng năm vào năm 2030 sẽ gần 1,5 nghìn tỷ USD; thị trường này được dẫn dắt bởi các nhu cầu thực tế và tăng tốc liên tục từ cả người tiêu dùng lẫn doanh nghiệp, trong khi chi phí ngày càng giảm cũng đang tiếp tục chứng thực và mở ra các kịch bản sử dụng mới. Chúng tôi tin rằng những doanh nghiệp nổi bật trong năm năm tới sẽ là những công ty có thể thiết kế được chip hiệu quả nhất, xây dựng được các mô hình mạnh mẽ nhất và triển khai đồng thời hai yếu tố đó trên quy mô lớn.

Như CEO Nvidia Huang Renxun đã trình bày trong cuộc gọi công bố kết quả tài chính quý 4 năm tài chính 2026, các tác nhân AI thực sự hữu dụng chỉ mới bắt đầu được triển khai quy mô lớn trong vài tháng gần đây. Chúng tiêu thụ lượng token rất lớn nhưng năng lực vượt xa đáng kể so với các sản phẩm AI mà đa số người dùng trước đây đã quen. Việc mở rộng các tác nhân này lên hàng triệu doanh nghiệp sẽ là một công việc cực kỳ nặng về tính toán; và theo quan điểm của chúng tôi, mức tăng năng suất mà điều đó mang lại sẽ hoàn toàn xứng đáng với những khoản đầu tư này.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim