Ark Invest: Kondisi dan Masa Depan Infrastruktur AI

Sumber: Frank Downing, Ark Invest; Terjemahan: Jurnalisme Emas Claw

Belanja infrastruktur AI meningkat secara eksponensial

Sejak ChatGPT diluncurkan, kebutuhan akan komputasi percepatan telah meningkat secara eksponensial. Pendapatan tahunan Nvidia melonjak hampir 8 kali lipat, dari 27 miliar dolar AS pada 2022 menjadi 216 miliar dolar AS pada 2025; konsensus pasar memperkirakan bahwa pada 2026 angka tersebut akan naik lagi 62% menjadi 350 miliar dolar AS. Laju pertumbuhan investasi sistem pusat data global (termasuk perangkat keras komputasi, jaringan, dan penyimpanan) telah meningkat dari 5% rata-rata per tahun selama 10 tahun hingga 2022 menjadi 30% dalam tiga tahun terakhir; diperkirakan pada 2026 akan tumbuh lagi lebih dari 30%, mencapai 653 miliar dolar AS.

Riset ARK menunjukkan bahwa komputasi percepatan (dibandingkan CPU tujuan umum) yang didorong oleh GPU dan integrated circuit khusus AI (ASIC) kini telah mendominasi investasi server, mencapai 86% dari penjualan server komputasi.

Penurunan biaya mendorong adopsi percepatan

Daya dorong untuk terus meningkatnya belanja infrastruktur komputasi percepatan yang dibutuhkan untuk menjalankan model AI berasal dari semakin meluasnya skenario penggunaan generative AI di sisi konsumen dan perusahaan, serta dari kebutuhan untuk melatih model fondasi yang lebih cerdas dalam upaya mengejar “superintelligence”.

Penurunan biaya yang cepat semakin mempercepat pertumbuhan permintaan. Menurut riset kami, biaya pelatihan AI turun 75% setiap tahun. Penurunan biaya inferensi bahkan lebih cepat—pada benchmark yang dilacak oleh Artificial Analysis, model-model yang memiliki skor lebih dari 50%, penurunan biaya tahunan rata-rata mencapai 95% dalam basis tahunan.

Dua kekuatan mendorong penurunan biaya yang signifikan: pertama, pemimpin industri seperti Nvidia yang setiap tahun meluncurkan produk baru menghadirkan peningkatan performa perangkat keras dari generasi ke generasi; kedua, perbaikan algoritme di tingkat perangkat lunak yang membuat efisiensi pelatihan dan inferensi pada perangkat keras yang sama terus meningkat.

Sinyal permintaan yang kuat muncul dari konsumen dan perusahaan

Kecepatan adopsi AI oleh konsumen jelas lebih cepat dibandingkan kecepatan adopsi internet pada saat itu. Tingkat penetrasi AI berkembang hingga sekitar 20% dalam tiga tahun, lebih dari dua kali kecepatan konsumen beralih ke internet.

Permintaan perusahaan juga tumbuh dengan kecepatan yang mengejutkan. Sebagai contoh, berdasarkan data OpenRouter, sejak Desember 2024, permintaan token meningkat 28 kali lipat.

Dalam dua tahun terakhir, laboratorium AI yang paling disukai pelanggan perusahaan, Anthropic, mencatat pertumbuhan pendapatan yang mengejutkan sekitar 100 kali—dari 100 juta dolar AS pendapatan operasional tahunan pada akhir 2023, menjadi estimasi 8–10 miliar dolar AS pada akhir 2025. Tren pertumbuhan Anthropic pada 2026 masih berlanjut: pada bulan Februari tahun ini diumumkan pendapatan tahunan mencapai 14 miliar dolar AS, serta telah menyelesaikan putaran pendanaan sebesar 30 miliar dolar AS dengan valuasi 380 miliar dolar AS.

OpenAI, yang bersaing di dua garis depan konsumen dan perusahaan secara bersamaan, juga mengalami pertumbuhan kuat di kalangan pengguna perusahaan; hingga November 2025, OpenAI telah memiliki 1 juta pelanggan perusahaan. Menurut Chief Financial Officer Sarah Friar, pertumbuhan pendapatan perusahaan OpenAI lebih cepat daripada bisnis konsumen, dan diperkirakan pada 2026 akan menyumbang 50% dari total pendapatan perusahaan. Friar juga menjelaskan alasan untuk investasi lebih lanjut pada infrastruktur dalam sebuah blog pada Januari 2026: dalam tiga tahun terakhir, pendapatan OpenAI tumbuh sebanding dengan kapasitas komputasinya.

Pasar modal privat menyediakan pendanaan untuk pembangunan AI

Untuk memenuhi sinyal permintaan yang kuat, investasi besar-besaran pada infrastruktur telah menjadi kebutuhan. Menurut data Crunchbase, pembiayaan untuk laboratorium AI privat pada 2025 melebihi 200 miliar dolar AS, dengan sekitar 80 miliar dolar AS mengalir ke pengembang model fondasi seperti OpenAI, Anthropic, dan xAI. Di pasar publik, perusahaan komputasi awan skala sangat besar sedang menggunakan cadangan kas dan mencari cara pendanaan lain untuk mendukung rencana belanja modal AI mereka—pada 2026 skala belanja tersebut dapat mencapai setinggi 700 miliar dolar AS.

Laporan menyebut bahwa transaksi 30 miliar dolar AS yang disepakati Meta dengan Blue Owl adalah transaksi modal privat terbesar dalam sejarah. Transaksi tersebut dibangun dalam bentuk perusahaan patungan, utamanya menggunakan pembiayaan utang; struktur special purpose vehicle (SPV) akan membuat utang proyek tidak tercantum di neraca Meta, langkah ini telah memicu kontroversi yang cukup besar.

AMD dan produsen lain menjadi penantang kuat bagi Nvidia

Di luar pusat data fisik, chip komputasi selalu menjadi inti belanja modal AI. Nvidia terus berada di garis depan era komputasi percepatan, tetapi kini pembeli chip AI terbesar berusaha meningkatkan kemampuan komputasi AI yang diperoleh dari setiap dolar investasi. Sejak akuisinya atas ATI Technologies pada 2006, Advanced Micro Devices (AMD) telah bersaing berdampingan dengan Nvidia dalam penjualan GPU di pasar konsumen, dan kini juga menjadi pesaing baru yang muncul di pasar perusahaan. Sejak meluncurkan prosesor seri EPYC pada 2017, pangsa AMD di pasar CPU server telah berubah dari pertumbuhan nyaris nol pada 2017 menjadi 40% pada 2025.

Untuk inferensi model skala kecil, performa relatif biaya total kepemilikan (TCO) GPU AMD kini sudah setara dengan Nvidia. TCO mempertimbangkan baik biaya pembelian awal chip (capital expenditure) maupun biaya operasional selama masa pakai chip (operating expenditure). Benchmark performa menggunakan metrik InferenceMax dari SemiAnalysis, dengan patokan jumlah token yang diproses per detik per GPU saat dioptimalkan untuk throughput; untuk benchmark biaya, digunakan estimasi SemiAnalysis terhadap belanja modal dan belanja operasional per jam.

Meskipun AMD sudah “mengejar ketertinggalan” dalam performa model skala kecil, Nvidia masih unggul signifikan dalam performa model skala besar, lihat gambar di bawah.

Solusi tingkat-rak Nvidia, Grace Blackwell, menghubungkan 72 GPU Grace Blackwell (GB200) agar beroperasi seperti GPU skala sangat besar yang berbagi memori. Interkoneksi rapat antar-chip ini memperkuat kemampuan inferensi model skala besar—model skala besar perlu mendistribusikan bobot model ke beberapa GPU, sehingga membutuhkan bandwidth komunikasi yang lebih besar dibandingkan model skala kecil. Untuk mengecilkan kesenjangan sebelum peluncuran Nvidia Vera Rubin, solusi tingkat-rak AMD dijadwalkan rilis pada paruh kedua 2026. Hingga saat ini, AMD telah memenangkan pesanan dari pelanggan seperti Microsoft, Meta, OpenAI, xAI, dan Oracle.

Penyedia cloud skala sangat besar memimpin revolusi chip kustom

Selain pemasok GPU komersial, penyedia cloud skala sangat besar dan laboratorium AI juga ingin mengambil kendali atas pengaruh Nvidia melalui chip buatan sendiri, serta menurunkan biaya komputasi AI. Selama lebih dari satu dekade, Google telah merancang integrated circuit khusus AI miliknya—Tensor Processing Unit (TPU)—untuk menjalankan model rekomendasi bagi bisnis pencariannya, dan pada generasi terbaru TPU v7 mengoptimalkan performa untuk generative AI. SemiAnalysis memperkirakan bahwa melalui TPU buatan sendiri yang memproses beban kerja internal, biaya per komputasi yang dikeluarkan Google dapat ditekan 62% dibanding Nvidia. Anthropic dan Meta menggunakan ekstensi TPU Google untuk meningkatkan kemampuan komputasi mereka, yang mungkin mengonfirmasi bahwa estimasi 62% tidak jauh dari kenyataan.

Chip Trainium milik Amazon tampaknya menjadi solusi yang cukup mutakhir. Setelah mengakuisisi Annapurna Labs pada 2015, Amazon menjadi yang pertama mengembangkan chip khusus untuk bisnis cloud-nya, memperluas Graviton CPU berbasis arsitektur ARM dan Nitro data processing unit (DPU), guna mendukung komputasi inti untuk Amazon Web Services (AWS). Amazon baru-baru ini mengumumkan bahwa Graviton 2025 telah memberikan lebih dari separuh tambahan kapasitas CPU AWS untuk tahun ketiga berturut-turut. Selain memakai TPU, Anthropic juga menjadikan AWS dan Trainium sebagai platform pelatihan pilihannya.

Microsoft baru pada 2023 terlambat masuk ke bidang chip kustom, merilis AI accelerator Maia 100, tetapi saat itu tidak memfokuskan pada generative AI; kini generasi keduanya sedang diperkenalkan, dengan fokus pada skenario inferensi AI.

Broadcom memimpin pasar layanan chip kustom

Google dan Amazon fokus pada desain chip front-end (arsitektur dan fungsi), sementara mitra desain back-end bertanggung jawab mengubah logikanya menjadi wafer silikon, mengelola advanced packaging, dan berkoordinasi dengan foundry wafer seperti TSMC untuk produksi. Di tengah tantangan pada bisnis foundry wafer Intel, TSMC telah menjadi mitra pilihan untuk sebagian besar proyek chip AI utama, sementara Broadcom menjadi mitra desain back-end terkemuka untuk TPU Google, Meta MTIA, serta chip kustom yang akan diluncurkan OpenAI pada 2026 mendatang. Apple selama ini mengerjakan sendiri desain end-to-end chip ponsel dan PC-nya, tetapi diberitakan bahwa Apple juga mungkin bekerja sama dengan Broadcom untuk mengembangkan chip AI. Citigroup memprediksi pendapatan AI Broadcom dapat tumbuh hingga lima kali dalam dua tahun ke depan, dari 20 miliar dolar AS pada 2025 menjadi 100 miliar dolar AS pada 2027.

Jalur pengembangan Trainium milik Amazon cukup unik dibanding rekan-rekannya—menurut laporan, Trainium 2 bekerja sama dengan Marvell, kemudian karena Marvell tidak menjalankan dengan baik, Trainium 3 dan Trainium 4 beralih ke kerja sama dengan Alchip. Kemampuan Amazon untuk mengganti mitra back-end menunjukkan bahwa integrasi vertikal memang membawa risiko tertentu bagi perusahaan seperti Broadcom. Perlu dicatat, Apple dan Tesla berkolaborasi langsung dengan foundry. Google di TPU v8 juga mungkin akan melakukan hal yang sama—produk tersebut memiliki dua SKU: satu dirancang bersama Broadcom, dan yang lainnya dirancang serta dikendalikan secara mandiri oleh Google dengan dukungan MediaTek.

Aktivitas perusahaan rintisan chip memanas

Riset kami menunjukkan bahwa kekuatan ekor panjang yang dibentuk oleh sekelompok perusahaan rintisan yang mencoba paradigma arsitektur baru dapat semakin menantang posisi pasar produsen chip yang sudah ada. Cerebras terkenal dengan engine berbasis wafer (sebuah chip raksasa berukuran seperti kotak pizza yang dibuat dari satu wafer silikon), serta menawarkan kecepatan pemrosesan token per detik tercepat di pasaran; kabarnya perusahaan ini sedang merencanakan go public tahun ini. Perusahaan tersebut baru-baru ini mengumumkan kerja sama dengan OpenAI untuk meluncurkan model pemrograman berkecepatan tinggi Codex Spark; sebelumnya, kedua pihak sudah mencapai kesepakatan kerja sama pada bulan Januari tahun ini. Groq juga menonjol berkat performa kecepatan pemrosesan token per detik yang sangat baik; baru-baru ini, Groq menandatangani perjanjian lisensi non-eksklusif senilai 20 miliar dolar AS untuk kekayaan intelektual dengan Nvidia, yang mencakup 90% karyawan Groq serta CEO dan TPU co-founder Jonathan Ross. Secara praktis ini adalah akuisisi terhadap tim dan teknologi Groq; struktur transaksi seperti ini semakin populer di pasar merger dan akuisisi, karena raksasa teknologi ingin menghindari keterlambatan yang ditimbulkan oleh peninjauan regulasi. Dalam dinamika akuisisi lainnya, Intel baru-baru ini beralih membangun kerja sama dengan SambaNova setelah dilaporkan gagal dalam negosiasi akuisisi. Intel sudah melakukan empat kali akuisisi di bidang AI sejak 2014, namun tetap belum mampu meluncurkan produk AI yang diakui luas oleh pasar—rekor ini cukup menyedihkan.

Ke depan: skala akan mencapai 1,4 triliun dolar AS pada 2030

Berdasarkan riset kami, pertumbuhan berkelanjutan permintaan selama lima tahun ke depan dan peningkatan performa yang terus terjadi akan mendorong perkembangan perangkat lunak AI dan layanan cloud; belanja infrastruktur AI akan tumbuh tiga kali lipat dalam lima tahun mendatang—dari 500 miliar dolar AS pada 2025 menjadi hampir 1,5 triliun dolar AS pada 2030.

Proyeksi kami didasarkan pada pengamatan historis investasi sistem pusat data dibandingkan pendapatan perangkat lunak. Pada awal 2010-an, seiring munculnya cloud computing, investasi sistem kira-kira mencapai 50% dari pengeluaran perangkat lunak global. Pada tahun 2021, investasi berlebih setelah pandemi Covid-19 dan optimalisasi pelanggan menurunkan proporsi investasi sistem relatif terhadap pengeluaran perangkat lunak hingga berada pada posisi terendah—sedikit di atas 20%. Proyeksi 1,5 triliun dolar AS kami mengasumsikan bahwa pada 2030, nilai investasi adalah 20% dari skenario prediksi netral kami untuk pengeluaran perangkat lunak global (yakni 70 triliun dolar AS pada 2030); proporsi ini telah dijelaskan secara rinci dalam sebuah blog kami tahun lalu. Kami berpendapat tingkat 20% sudah cukup mempertimbangkan risiko investasi berlebih potensial sebelum 2030, serta kemungkinan bahwa laju pertumbuhan pendapatan perangkat lunak lebih lambat daripada skenario prediksi netral—pada skenario terakhir, kami memperkirakan investasi infrastruktur akan terus mempertahankan pertumbuhan cepat, seperti pada awal 2010-an.

Seiring kebutuhan komputasi yang didorong AI terus meningkat, kami memperkirakan porsi chip kustom dalam belanja komputasi akan terus naik—karena waktu dan investasi yang dibutuhkan untuk merancang chip yang dioptimalkan untuk beban kerja tertentu akan semakin menghasilkan keunggulan performa per dolar saat diskalakan. Kami berpendapat bahwa pada 2030, porsi ASIC kustom di pasar komputasi mungkin akan melebihi sepertiga.

Secara keseluruhan, riset kami menunjukkan bahwa pembangunan infrastruktur yang sedang berlangsung saat ini bukanlah gelembung yang akan pecah, melainkan fondasi transformasi tingkat platform yang sangat langka. ARK memperkirakan belanja infrastruktur AI tahunan pada 2030 akan mendekati 1,5 triliun dolar AS; pasar ini didorong oleh permintaan nyata dan terus dipercepat dari konsumen serta perusahaan, sementara biaya yang terus menurun secara terus-menerus memvalidasi dan membuka skenario penggunaan baru. Kami yakin, perusahaan yang menonjol dalam lima tahun ke depan adalah perusahaan yang mampu merancang chip paling efisien, membangun model-model paling kuat, dan menerapkan keduanya dalam skala besar.

Seperti yang dijelaskan oleh CEO Nvidia Huang Renxun dalam konferensi telepon laporan keuangan kuartal keempat tahun fiskal 2026, agen AI yang benar-benar praktis baru mulai diimplementasikan secara besar-besaran dalam beberapa bulan terakhir. Mereka mengonsumsi token dalam jumlah besar, tetapi kemampuannya jauh melampaui produk AI yang sebagian besar pengguna selama ini terbiasa. Menyebarkan agen-agen ini ke jutaan perusahaan akan menjadi pekerjaan yang sangat padat komputasi, dan menurut kami, peningkatan produktivitas yang dihasilkan benar-benar sepadan dengan investasi tersebut.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan