Protokol penyimpanan Walrus di ekosistem Sui terlihat sangat canggih, tetapi saat benar-benar digunakan, ada banyak sekali masalah. Sebagai teknisi yang telah lama berkecimpung di bidang penyimpanan terdistribusi, haruslah kukatakan dengan jujur — dokumentasi resmi hanya menjelaskan kasus ideal, saat penerapan aktual berbagai masalah bermunculan.
Mari mulai dari skema erasure coding dua dimensi RedStuff. Pendekatan ini memang elegan di atas kertas: menganggap data sebagai matriks simbol n×m, melakukan encoding RaptorQ pada kolom terlebih dahulu untuk menghasilkan fragmen utama, kemudian melakukan encoding Reed-Solomon pada baris untuk menghasilkan fragmen sekunder. Setiap node menyimpan satu pasangan kombinasi fragmen utama-sekunder, dan sepertiga node sudah bisa memulihkan data lengkap. Tingkat redundansi dikendalikan pada 4 sampai 5 kali lipat—angka ini memang lebih efisien dibanding replikasi 3 sampai 5 kali lipat dari bursa terdepan tertentu, dan juga lebih hemat ruang dibanding pencadangan jaringan penuh dari platform all-in-one tertentu.
Namun efisiensi ini tidak didapat dengan cuma-cuma, biayanya akan membesar berkali-kali lipat dalam skenario beban tinggi.
Pertama adalah overhead komputasi encoding-decoding. Meskipun RaptorQ adalah standar fountain code yang diakui industri, kompleksitas operasi matriks tidak rendah. Khususnya saat memproses file level GB, pengujian aktual mengunggah file model AI 5GB, proses encoding akan menggunakan lebih dari 90% sumber daya CPU klien, dengan waktu tempuh lebih dari 2 menit. Jika aplikasi memerlukan pengunggahan yang sering, overhead ini menjadi hambatan performa yang jelas. Waktu encoding yang panjang tidak masalah, tetapi konsumsi sumber daya saat decoding dan rekonstruksi sama menakutkannya.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
15 Suka
Hadiah
15
5
Posting ulang
Bagikan
Komentar
0/400
CountdownToBroke
· 22jam yang lalu
Secara teori terlihat bagus, tapi saat digunakan baru tahu apa arti repot-repot, encoding 5GB dalam 2 menit saja CPU langsung penuh, siapa yang tahan dengan ini?
Lihat AsliBalas0
RektButAlive
· 23jam yang lalu
5GB file 2 menit encoding? Bro, aku harus bertanya pada diri sendiri, apakah ini benar-benar bisa digunakan?
Lihat AsliBalas0
WalletWhisperer
· 23jam yang lalu
walrus terlihat bagus di atas kertas sampai Anda benar-benar menjalankan angka-angkanya, jujur saja, 90% pembakaran CPU untuk unggahan 5gb? itu bukan fitur, itu tangisan minta tolong
Lihat AsliBalas0
GweiObserver
· 23jam yang lalu
Ini lagi-lagi omong kosong yang tidak praktis, saat diimplementasikan akan gagal total
Lihat AsliBalas0
OnchainUndercover
· 23jam yang lalu
Jangan sampai tertipu oleh makalah, kode koreksi error Walrus itu dalam praktik hanyalah pembunuh kinerja
Mengkodekan file 5GB dalam 2 menit? Astaga, ini masih disebut solusi penyimpanan?
RedStuff terlihat canggih, tapi saat digunakan CPU langsung penuh... baru tahu arti dari teori di atas kertas
Dokumen resmi semuanya menipu, kenyataannya malah merepotkan
90% penggunaan CPU, kalian berani pakai ini? Keren banget
Efisien apa sih, langsung meledak saat beban tinggi
Protokol penyimpanan Walrus di ekosistem Sui terlihat sangat canggih, tetapi saat benar-benar digunakan, ada banyak sekali masalah. Sebagai teknisi yang telah lama berkecimpung di bidang penyimpanan terdistribusi, haruslah kukatakan dengan jujur — dokumentasi resmi hanya menjelaskan kasus ideal, saat penerapan aktual berbagai masalah bermunculan.
Mari mulai dari skema erasure coding dua dimensi RedStuff. Pendekatan ini memang elegan di atas kertas: menganggap data sebagai matriks simbol n×m, melakukan encoding RaptorQ pada kolom terlebih dahulu untuk menghasilkan fragmen utama, kemudian melakukan encoding Reed-Solomon pada baris untuk menghasilkan fragmen sekunder. Setiap node menyimpan satu pasangan kombinasi fragmen utama-sekunder, dan sepertiga node sudah bisa memulihkan data lengkap. Tingkat redundansi dikendalikan pada 4 sampai 5 kali lipat—angka ini memang lebih efisien dibanding replikasi 3 sampai 5 kali lipat dari bursa terdepan tertentu, dan juga lebih hemat ruang dibanding pencadangan jaringan penuh dari platform all-in-one tertentu.
Namun efisiensi ini tidak didapat dengan cuma-cuma, biayanya akan membesar berkali-kali lipat dalam skenario beban tinggi.
Pertama adalah overhead komputasi encoding-decoding. Meskipun RaptorQ adalah standar fountain code yang diakui industri, kompleksitas operasi matriks tidak rendah. Khususnya saat memproses file level GB, pengujian aktual mengunggah file model AI 5GB, proses encoding akan menggunakan lebih dari 90% sumber daya CPU klien, dengan waktu tempuh lebih dari 2 menit. Jika aplikasi memerlukan pengunggahan yang sering, overhead ini menjadi hambatan performa yang jelas. Waktu encoding yang panjang tidak masalah, tetapi konsumsi sumber daya saat decoding dan rekonstruksi sama menakutkannya.