Akash Network telah meluncurkan AkashML, menawarkan API yang kompatibel dengan OpenAI, akses global dengan latensi rendah, dan penghematan biaya hingga 85% untuk penerapan LLM.
Akash Network, sebuah marketplace komputasi awan, telah memperkenalkan layanan inferensi AI sepenuhnya terkelola pertama yang beroperasi sepenuhnya di GPU terdesentralisasi. Layanan baru ini menghilangkan tantangan operasional yang sebelumnya dihadapi oleh pengembang dalam mengelola inferensi tingkat produksi di Akash, memberikan keunggulan komputasi awan terdesentralisasi tanpa perlu pengelolaan infrastruktur secara langsung.
Saat peluncuran, AkashML menawarkan inferensi terkelola untuk model seperti Llama 3.3-70B, DeepSeek V3, dan Qwen3-30B-A3B, yang tersedia untuk diterapkan secara instan dan dapat diskalakan di lebih dari 65 pusat data secara global. Pengaturan ini memungkinkan inferensi global instan, harga pembayaran per token yang dapat diprediksi, dan meningkatkan produktivitas pengembang.
Akash telah mendukung pengembang AI awal dan startup sejak bangkitnya aplikasi AI setelah kemajuan awal OpenAI. Selama beberapa tahun terakhir, tim inti Akash telah berkolaborasi dengan klien seperti brev.dev (diakuisisi oleh Nvidia), VeniceAI, dan Prime Intellect untuk meluncurkan produk yang melayani puluhan ribu pengguna. Meski para pengguna awal ini cukup ahli secara teknis dan mampu mengelola infrastruktur sendiri, umpan balik yang diterima menunjukkan preferensi terhadap akses berbasis API tanpa harus menangani sistem dasar. Masukan ini membimbing pengembangan versi AkashML non-publik untuk pengguna terpilih, serta penciptaan AkashChat dan AkashChat API, yang membuka jalan bagi peluncuran publik AkashML.
AkashML Pangkas Biaya Penerapan LLM Hingga 85%
Solusi baru ini mengatasi beberapa tantangan kunci yang dihadapi pengembang dan bisnis saat menerapkan model bahasa besar. Solusi cloud tradisional sering kali melibatkan biaya tinggi, dengan instance terpesan untuk model 70B melebihi $0,13 per input dan $0,40 per output per satu juta token, sementara AkashML memanfaatkan persaingan marketplace untuk menekan biaya hingga 70-85%. Beban operasional juga menjadi hambatan, karena mengemas model, mengonfigurasi server vLLM atau TGI, mengelola shard, dan menangani failover bisa memakan waktu berminggu-minggu kerja rekayasa; AkashML menyederhanakan proses ini dengan API yang kompatibel dengan OpenAI yang memungkinkan migrasi dalam hitungan menit tanpa perubahan kode.
Latensi juga menjadi perhatian pada platform terpusat yang memerlukan permintaan melintasi jarak jauh. AkashML mengarahkan lalu lintas ke pusat data terdekat dari lebih dari 80 lokasi global, menghasilkan waktu respons di bawah 200ms yang cocok untuk aplikasi real-time. Vendor lock-in membatasi fleksibilitas dan kontrol atas model serta data; AkashML hanya menggunakan model terbuka seperti Llama, DeepSeek, dan Qwen, sehingga pengguna memiliki kontrol penuh atas versi, pembaruan, dan tata kelola. Tantangan skalabilitas diatasi dengan auto-scaling di sumber daya GPU terdesentralisasi, mempertahankan uptime 99% dan menghilangkan batas kapasitas sambil menghindari lonjakan harga mendadak.
AkashML dirancang untuk onboarding cepat dan ROI instan. Pengguna baru menerima $100 dalam kredit token AI untuk bereksperimen dengan semua model yang didukung melalui Playground atau API. Satu endpoint API mendukung semua model dan terintegrasi dengan framework seperti LangChain, Haystack, atau agen kustom. Harga transparan dan spesifik untuk tiap model, mencegah biaya tak terduga. Penerapan berdampak tinggi bisa mendapat eksposur melalui Akash Star, dan peningkatan jaringan yang akan datang termasuk BME, virtual machine, dan confidential computing diharapkan semakin menurunkan biaya. Pengguna awal melaporkan pengurangan biaya tiga hingga lima kali lipat dan latensi global konsisten di bawah 200ms, menciptakan siklus penguatan biaya lebih rendah, penggunaan meningkat, dan partisipasi penyedia yang bertambah.
Memulai sangat mudah: pengguna dapat membuat akun gratis di playground.akashml.com dalam waktu kurang dari dua menit, menjelajahi pustaka model termasuk Llama 3.3-70B, DeepSeek V3, dan Qwen3-30B-A3B, serta melihat harga secara langsung. Model tambahan dapat diminta langsung melalui platform. Pengguna dapat langsung menguji model di Playground atau melalui API, memantau penggunaan, latensi, dan pengeluaran melalui dashboard, serta melakukan scale up ke produksi dengan region pinning dan auto-scaling.
Inferensi terpusat tetap mahal, lambat, dan terbatas, sedangkan AkashML menghadirkan akses terdesentralisasi sepenuhnya terkelola, berbasis API, ke model terbuka terbaik dengan harga yang didorong oleh marketplace. Pengembang dan bisnis yang ingin memangkas biaya inferensi hingga 80% dapat langsung mulai menggunakan platform ini.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Akash Network Meluncurkan AkashML, Layanan Inferensi AI Terkelola Sepenuhnya Pertama di GPU Terdesentralisasi
Secara Singkat
Akash Network telah meluncurkan AkashML, menawarkan API yang kompatibel dengan OpenAI, akses global dengan latensi rendah, dan penghematan biaya hingga 85% untuk penerapan LLM.
Akash Network, sebuah marketplace komputasi awan, telah memperkenalkan layanan inferensi AI sepenuhnya terkelola pertama yang beroperasi sepenuhnya di GPU terdesentralisasi. Layanan baru ini menghilangkan tantangan operasional yang sebelumnya dihadapi oleh pengembang dalam mengelola inferensi tingkat produksi di Akash, memberikan keunggulan komputasi awan terdesentralisasi tanpa perlu pengelolaan infrastruktur secara langsung.
Saat peluncuran, AkashML menawarkan inferensi terkelola untuk model seperti Llama 3.3-70B, DeepSeek V3, dan Qwen3-30B-A3B, yang tersedia untuk diterapkan secara instan dan dapat diskalakan di lebih dari 65 pusat data secara global. Pengaturan ini memungkinkan inferensi global instan, harga pembayaran per token yang dapat diprediksi, dan meningkatkan produktivitas pengembang.
Akash telah mendukung pengembang AI awal dan startup sejak bangkitnya aplikasi AI setelah kemajuan awal OpenAI. Selama beberapa tahun terakhir, tim inti Akash telah berkolaborasi dengan klien seperti brev.dev (diakuisisi oleh Nvidia), VeniceAI, dan Prime Intellect untuk meluncurkan produk yang melayani puluhan ribu pengguna. Meski para pengguna awal ini cukup ahli secara teknis dan mampu mengelola infrastruktur sendiri, umpan balik yang diterima menunjukkan preferensi terhadap akses berbasis API tanpa harus menangani sistem dasar. Masukan ini membimbing pengembangan versi AkashML non-publik untuk pengguna terpilih, serta penciptaan AkashChat dan AkashChat API, yang membuka jalan bagi peluncuran publik AkashML.
AkashML Pangkas Biaya Penerapan LLM Hingga 85%
Solusi baru ini mengatasi beberapa tantangan kunci yang dihadapi pengembang dan bisnis saat menerapkan model bahasa besar. Solusi cloud tradisional sering kali melibatkan biaya tinggi, dengan instance terpesan untuk model 70B melebihi $0,13 per input dan $0,40 per output per satu juta token, sementara AkashML memanfaatkan persaingan marketplace untuk menekan biaya hingga 70-85%. Beban operasional juga menjadi hambatan, karena mengemas model, mengonfigurasi server vLLM atau TGI, mengelola shard, dan menangani failover bisa memakan waktu berminggu-minggu kerja rekayasa; AkashML menyederhanakan proses ini dengan API yang kompatibel dengan OpenAI yang memungkinkan migrasi dalam hitungan menit tanpa perubahan kode.
Latensi juga menjadi perhatian pada platform terpusat yang memerlukan permintaan melintasi jarak jauh. AkashML mengarahkan lalu lintas ke pusat data terdekat dari lebih dari 80 lokasi global, menghasilkan waktu respons di bawah 200ms yang cocok untuk aplikasi real-time. Vendor lock-in membatasi fleksibilitas dan kontrol atas model serta data; AkashML hanya menggunakan model terbuka seperti Llama, DeepSeek, dan Qwen, sehingga pengguna memiliki kontrol penuh atas versi, pembaruan, dan tata kelola. Tantangan skalabilitas diatasi dengan auto-scaling di sumber daya GPU terdesentralisasi, mempertahankan uptime 99% dan menghilangkan batas kapasitas sambil menghindari lonjakan harga mendadak.
AkashML dirancang untuk onboarding cepat dan ROI instan. Pengguna baru menerima $100 dalam kredit token AI untuk bereksperimen dengan semua model yang didukung melalui Playground atau API. Satu endpoint API mendukung semua model dan terintegrasi dengan framework seperti LangChain, Haystack, atau agen kustom. Harga transparan dan spesifik untuk tiap model, mencegah biaya tak terduga. Penerapan berdampak tinggi bisa mendapat eksposur melalui Akash Star, dan peningkatan jaringan yang akan datang termasuk BME, virtual machine, dan confidential computing diharapkan semakin menurunkan biaya. Pengguna awal melaporkan pengurangan biaya tiga hingga lima kali lipat dan latensi global konsisten di bawah 200ms, menciptakan siklus penguatan biaya lebih rendah, penggunaan meningkat, dan partisipasi penyedia yang bertambah.
Memulai sangat mudah: pengguna dapat membuat akun gratis di playground.akashml.com dalam waktu kurang dari dua menit, menjelajahi pustaka model termasuk Llama 3.3-70B, DeepSeek V3, dan Qwen3-30B-A3B, serta melihat harga secara langsung. Model tambahan dapat diminta langsung melalui platform. Pengguna dapat langsung menguji model di Playground atau melalui API, memantau penggunaan, latensi, dan pengeluaran melalui dashboard, serta melakukan scale up ke produksi dengan region pinning dan auto-scaling.
Inferensi terpusat tetap mahal, lambat, dan terbatas, sedangkan AkashML menghadirkan akses terdesentralisasi sepenuhnya terkelola, berbasis API, ke model terbuka terbaik dengan harga yang didorong oleh marketplace. Pengembang dan bisnis yang ingin memangkas biaya inferensi hingga 80% dapat langsung mulai menggunakan platform ini.