Ekonomi AI sebesar $15,7 Triliun Membutuhkan Lebih dari Sekadar Kekuatan Komputasi
Kecerdasan buatan terus membentuk ulang lanskap teknologi, dengan proyeksi industri yang menyatakan bahwa teknologi ini dapat menyuntikkan $15,7 triliun ke dalam ekonomi global menjelang akhir dekade. Perkiraan ini terbagi menjadi $6,6 triliun dari peningkatan produktivitas dan $9,1 triliun dari aplikasi konsumen. Kejar-kejaran untuk membangun infrastruktur AI—terutama pusat data—telah menciptakan permintaan yang belum pernah terjadi sebelumnya untuk perangkat keras khusus.
Selama tiga tahun terakhir, percakapan berfokus pada GPU. Nvidia menguasai lebih dari 90% pasar akselerator AI dengan menawarkan unit pemrosesan grafis yang unggul dalam perhitungan paralel yang diperlukan untuk melatih model bahasa besar seperti ChatGPT dan Llama. Dominasi perusahaan ini tampak tak tergoyahkan, menjadikannya pilihan default bagi hyperscaler yang membangun infrastruktur AI.
Tapi inilah yang paling banyak diabaikan oleh para investor: tren AI yang benar-benar panas bukan tentang processor mana yang menang.
Mengapa Chip Kustom Tidak Menyelesaikan Segalanya
Perubahan sudah mulai terjadi. Hyperscaler termasuk Alphabet, Meta Platforms, dan lainnya semakin banyak menggunakan prosesor AI kustom yang dirancang oleh Broadcom dan Marvell Technology. Sirkuit terintegrasi khusus aplikasi (ASICs) ini menawarkan keunggulan dibandingkan GPU tradisional—mereka lebih hemat daya untuk tugas tertentu dan memberikan performa yang lebih baik per watt.
Angka-angka menunjukkan tren ini semakin mendapatkan momentum. Broadcom memproyeksikan pendapatan AI-nya akan berlipat ganda menjadi $8,2 miliar dalam kuartal saat ini, didorong oleh kontrak besar dari OpenAI, Meta, dan Google. Firma riset pasar TrendForce memperkirakan pengiriman prosesor AI kustom bisa melonjak sebesar 44% pada tahun 2026, sementara pengiriman GPU diperkirakan hanya tumbuh 16%.
Namun meskipun prosesor kustom semakin berkembang, mereka menghadapi batasan kritis yang tidak cukup ditangani oleh produsen chip maupun sebagian besar analis.
Kendala yang Tidak Diungkapkan: Bandwidth Memori
Baik GPU Nvidia maupun prosesor kustom Broadcom memiliki kebutuhan yang sama: jumlah besar memori bandwidth tinggi (HBM). Jenis memori khusus ini menangani transfer data dengan kecepatan yang tidak bisa dicapai oleh chip memori tradisional, sekaligus mengkonsumsi daya lebih sedikit dan menimbulkan latensi minimal.
HBM bukanlah fitur mewah—ini adalah infrastruktur penting yang mencegah kinerja GPU dan ASIC menjadi bottleneck. Tanpa kapasitas HBM yang cukup, bahkan prosesor paling kuat sekalipun akan memberikan hasil yang berkurang di lingkungan pusat data.
Implikasinya sangat mencolok. Micron Technology, pemain utama di pasar memori global, memperkirakan pasar HBM akan berkembang dari $35 miliar pada 2025 menjadi $100 miliar pada 2028. Trajektori ini mencerminkan ketidakseimbangan parah antara pasokan HBM saat ini dan permintaan yang melonjak dari produsen akselerator AI.
Mengapa Ini Penting untuk 2026
Kekurangan pasokan ini sudah terlihat dari kinerja keuangan Micron. Perusahaan melaporkan peningkatan pendapatan sebesar 57% year-over-year menjadi $13,6 miliar di kuartal pertama tahun fiskal 2026 (berakhir 27 November), dengan laba non-GAAP melonjak 2,7 kali lipat year-over-year menjadi $4,78 per saham.
Yang paling penting, manajemen Micron mengumumkan bahwa mereka telah “menyelesaikan kesepakatan mengenai harga dan volume untuk seluruh pasokan HBM tahun kalender 2026,” yang berarti perusahaan telah menjual seluruh kapasitas produksinya untuk tahun mendatang. Kombinasi volume yang lebih tinggi dan harga premium ini telah mendorong para analis memproyeksikan kenaikan laba Micron sebesar 288% menjadi $32,14 per saham.
Bagi para investor yang mengikuti narasi infrastruktur AI yang sedang panas ini, ini mengungkapkan sebuah kebenaran penting: perusahaan yang mengendalikan produksi HBM memegang kunci pasar percepatan AI, bukan mereka yang membangun prosesor itu sendiri. Valuasi Micron—yang saat ini di bawah 10 kali laba masa depan—mencerminkan peluang sebelum pasar sepenuhnya menyadari dinamika ini.
Seiring adopsi GPU dan ASIC yang semakin cepat sepanjang 2026, batasan utama bukanlah kekuatan komputasi—melainkan infrastruktur memori yang memungkinkan kekuatan tersebut benar-benar berfungsi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Bottleneck Sebenarnya yang Menggerakkan Infrastruktur AI Hot: Mengapa Memori, Bukan Prosesor, Menentukan 2026
Ekonomi AI sebesar $15,7 Triliun Membutuhkan Lebih dari Sekadar Kekuatan Komputasi
Kecerdasan buatan terus membentuk ulang lanskap teknologi, dengan proyeksi industri yang menyatakan bahwa teknologi ini dapat menyuntikkan $15,7 triliun ke dalam ekonomi global menjelang akhir dekade. Perkiraan ini terbagi menjadi $6,6 triliun dari peningkatan produktivitas dan $9,1 triliun dari aplikasi konsumen. Kejar-kejaran untuk membangun infrastruktur AI—terutama pusat data—telah menciptakan permintaan yang belum pernah terjadi sebelumnya untuk perangkat keras khusus.
Selama tiga tahun terakhir, percakapan berfokus pada GPU. Nvidia menguasai lebih dari 90% pasar akselerator AI dengan menawarkan unit pemrosesan grafis yang unggul dalam perhitungan paralel yang diperlukan untuk melatih model bahasa besar seperti ChatGPT dan Llama. Dominasi perusahaan ini tampak tak tergoyahkan, menjadikannya pilihan default bagi hyperscaler yang membangun infrastruktur AI.
Tapi inilah yang paling banyak diabaikan oleh para investor: tren AI yang benar-benar panas bukan tentang processor mana yang menang.
Mengapa Chip Kustom Tidak Menyelesaikan Segalanya
Perubahan sudah mulai terjadi. Hyperscaler termasuk Alphabet, Meta Platforms, dan lainnya semakin banyak menggunakan prosesor AI kustom yang dirancang oleh Broadcom dan Marvell Technology. Sirkuit terintegrasi khusus aplikasi (ASICs) ini menawarkan keunggulan dibandingkan GPU tradisional—mereka lebih hemat daya untuk tugas tertentu dan memberikan performa yang lebih baik per watt.
Angka-angka menunjukkan tren ini semakin mendapatkan momentum. Broadcom memproyeksikan pendapatan AI-nya akan berlipat ganda menjadi $8,2 miliar dalam kuartal saat ini, didorong oleh kontrak besar dari OpenAI, Meta, dan Google. Firma riset pasar TrendForce memperkirakan pengiriman prosesor AI kustom bisa melonjak sebesar 44% pada tahun 2026, sementara pengiriman GPU diperkirakan hanya tumbuh 16%.
Namun meskipun prosesor kustom semakin berkembang, mereka menghadapi batasan kritis yang tidak cukup ditangani oleh produsen chip maupun sebagian besar analis.
Kendala yang Tidak Diungkapkan: Bandwidth Memori
Baik GPU Nvidia maupun prosesor kustom Broadcom memiliki kebutuhan yang sama: jumlah besar memori bandwidth tinggi (HBM). Jenis memori khusus ini menangani transfer data dengan kecepatan yang tidak bisa dicapai oleh chip memori tradisional, sekaligus mengkonsumsi daya lebih sedikit dan menimbulkan latensi minimal.
HBM bukanlah fitur mewah—ini adalah infrastruktur penting yang mencegah kinerja GPU dan ASIC menjadi bottleneck. Tanpa kapasitas HBM yang cukup, bahkan prosesor paling kuat sekalipun akan memberikan hasil yang berkurang di lingkungan pusat data.
Implikasinya sangat mencolok. Micron Technology, pemain utama di pasar memori global, memperkirakan pasar HBM akan berkembang dari $35 miliar pada 2025 menjadi $100 miliar pada 2028. Trajektori ini mencerminkan ketidakseimbangan parah antara pasokan HBM saat ini dan permintaan yang melonjak dari produsen akselerator AI.
Mengapa Ini Penting untuk 2026
Kekurangan pasokan ini sudah terlihat dari kinerja keuangan Micron. Perusahaan melaporkan peningkatan pendapatan sebesar 57% year-over-year menjadi $13,6 miliar di kuartal pertama tahun fiskal 2026 (berakhir 27 November), dengan laba non-GAAP melonjak 2,7 kali lipat year-over-year menjadi $4,78 per saham.
Yang paling penting, manajemen Micron mengumumkan bahwa mereka telah “menyelesaikan kesepakatan mengenai harga dan volume untuk seluruh pasokan HBM tahun kalender 2026,” yang berarti perusahaan telah menjual seluruh kapasitas produksinya untuk tahun mendatang. Kombinasi volume yang lebih tinggi dan harga premium ini telah mendorong para analis memproyeksikan kenaikan laba Micron sebesar 288% menjadi $32,14 per saham.
Bagi para investor yang mengikuti narasi infrastruktur AI yang sedang panas ini, ini mengungkapkan sebuah kebenaran penting: perusahaan yang mengendalikan produksi HBM memegang kunci pasar percepatan AI, bukan mereka yang membangun prosesor itu sendiri. Valuasi Micron—yang saat ini di bawah 10 kali laba masa depan—mencerminkan peluang sebelum pasar sepenuhnya menyadari dinamika ini.
Seiring adopsi GPU dan ASIC yang semakin cepat sepanjang 2026, batasan utama bukanlah kekuatan komputasi—melainkan infrastruktur memori yang memungkinkan kekuatan tersebut benar-benar berfungsi.