サンフランシスコ、CA、2026年2月26日、Chainwire
SolanaCDNは、35,000以上のノードによるグローバルメッシュを通じて、3.8倍高速なshred伝播を実現します。これはSolanaネットワーク向けのパブリックグッドとして提供されています。
Pipe Networkは本日、CDN加速レイヤーを統合した無料のオープンソースのSolanaバリデータクライアント「SolanaCDN」のリリースを発表しました。AnzaのAgaveをフォークして構築されたこのクライアントにより、すべてのSolanaバリデータは、Pipeの35,000以上のPoP(Point-of-Presence)ノードからなるグローバルネットワークを通じて、より高速なshred伝播にアクセスできます。
クライアントとCDNレイヤーはともに完全に無料です。Pipe Networkは、SolanaエコシステムのためのパブリックグッドインフラとしてSolanaCDNを提供しています。
SolanaCDNが解決する課題
Solanaにおけるバリデータのパフォーマンスは、ネットワークの地理的配置に大きく左右されます。ブロックプロデューサーに近いバリデータはshredを早く受け取り、早く投票し、より多くの報酬を得ることができます。一方、接続が不十分な地域のバリデータは、伝播の遅延、投票の取り逃し、そしてハードウェアに関係なくリーダースロットの収益減少に直面します。
SolanaCDNは、ネイティブのゴシップに加えて、shred配信のためのもう一つの高速経路をバリデータに提供します。shredと投票パケットは、Pipeのグローバルメッシュを通じてルーティングされます。このメッシュはすべてのネットワーク経路を継続的に測定し、最も速い経路に沿ってリアルタイムでトラフィックをルーティングします。
ネイティブのゴシップは引き続き動作します。SolanaCDNは並列の高速レーンを追加します。
パフォーマンス
SolanaCDNは標準のTurbineより3.8倍高速な伝播を実現し、標準ゴシップの約300msのベースラインと比較して、リージョン間のP50レイテンシは約78msです。
このクライアントには、CDNレイヤーが有効になる前に利用可能なPipeによる最適化も標準装備されています。これには、リーダー向けの最適化されたshredの統合(Fast Shreds)、Pipeのグローバルネットワークからのスナップショットダウンロード、バリデータの追いつき中のリアルタイムETAsによる復元進捗の表示が含まれます。
パブリックグッドインフラ
伝播速度の向上はネットワーク効果です。SolanaCDNを動かすバリデータが増えるほど、shredの配信はグローバルに改善され、ブロックの最終化が速まり、フォークの減少やスロットの取り逃しも少なくなります。
「バリデータのパフォーマンスは地理的な場所によって決まるべきではありません」と、Pipe NetworkのCEOであるDavid Rhodusは述べています。「SolanaCDNは、すべてのバリデータに同じ高速なインフラへのアクセスを提供します。これを運用するバリデータが増えれば増えるほど、Solanaはより速くなり、すべての人にとっての利便性が向上します。」
技術設計
SolanaCDNは完全に互換性のあるAgaveフォークです。バリデータは既存のクライアントの代替としてインストール可能です。CDNレイヤーはオプションで、単一の設定フラグで有効化でき、設計上コンセンサスには関与しません。ブロック生成、コンセンサスロジック、リーダースケジューリング、投票ルールには変更を加えません。すべてのCDN操作はノンブロッキングでフェイルセーフです。CDNレイヤーが利用できない場合でも、バリデータは通常通り動作します。
内蔵のPrometheusメトリクスと、CDNとゴシップの競争データにより、運用者は自分の環境におけるパフォーマンス変化を完全に把握できます。
提供状況
SolanaCDNは現在利用可能です。ソースコードはGitHubに公開されており、クライアントはSolanaのmainnet-beta上で稼働準備が整っています。
ウェブサイト:
GitHub:
Pipe Networkについて
Pipe Networkは、Solana上に構築されたグローバルなエッジインフラ企業です。同社のネットワークは、世界中で35,000以上の超ローカルPoPノードを運用し、高速な読み取りとリアルタイムデータ配信を可能にする分散ストレージを提供します。Pipeのオーバーレイネットワークは、すべての経路におけるレイテンシ、ロス、ジッターをリアルタイムで追跡し、最速の経路に沿ってトラフィックをルーティングします。
CEO
David Rhodus
Pipe Network
[email protected]