Galaxy Digital: 暗号資産と人工知能の交差点を探る

この記事では、暗号通貨と人工知能の交差点を探求し、公共のブロックチェーンの台頭をコンピューターサイエンスの歴史の中で最も重大な進歩の一つとして強調しています。AIの発展がすでに私たちの世界に大きな影響を与えていることについても論じています。

はじめに

公開ブロックチェーンの出現は、コンピュータサイエンスの歴史における重大な進歩を示し、一方で人工知能の開発は私たちの世界に大きな影響を与えています。ブロックチェーン技術は取引決済、データ保管、システム設計の新しいテンプレートを提供し、一方人工知能はコンピューティング、分析、コンテンツ配信に革命をもたらします。これらの産業のイノベーションは、両セクターの採用を加速させる可能性のある新しいユースケースを解き放っています。このレポートは、暗号資産と人工知能の統合を調査し、両者の間のギャップを埋め、それぞれの強みを活用しようとする新しいユースケースに焦点を当てています。具体的には、分散コンピューティングプロトコル、ゼロ知識機械学習(zkML)インフラストラクチャ、AIエージェントの開発プロジェクトを調査しています。

暗号資産は、AIに対する許可なし、信頼なし、および合成可能な決済レイヤーを提供し、分散コンピューティングシステムを介したハードウェアへの容易なアクセス、価値交換を必要とする複雑なタスクを実行できるAIエージェントの構築、およびSybil攻撃やディープフェイクに対抗するためのアイデンティティと起源ソリューションの開発などのユースケースの利用を解き放つ。AIは、ChatGPTやCopilotなどの大規模言語モデルを通じた強化されたユーザーや開発者の体験、およびスマートコントラクトの機能と自動化の可能性の大幅な向上など、Web 2.0で見られる多くの利点を暗号資産にもたらす。ブロックチェーンはAIに必要な透明でデータ豊富な環境を提供しますが、ブロックチェーンの限られた計算能力はAIモデルの直接統合の主要な障壁です。

暗号資産とAIの交差における実験と最終的な採用は、暗号資産の最も有望なユースケースを推進する要因によって駆動されています:許可されていない信頼性のある調整レイヤーへのアクセスによるバリュートランスファーの向上を促進します。この分野のステークホルダーは、これらの技術が交差する基本的な方法を理解する必要があります。

キーポイント:

    • 近い将来(6ヶ月から1年以内)、暗号資産とAIの統合は、開発者の効率を向上させるAIアプリケーション、スマートコントラクトの監査可能性とセキュリティ、およびユーザーのアクセシビリティを主体とするものとなるでしょう。これらの統合は暗号資産に限定されるものではなく、オンチェーンの開発者やユーザーの体験を向上させます。
    • 高性能GPUが不足し続ける中、分散コンピューティング製品は採用拡大のためにAIカスタマイズGPU製品を導入しています。
    • ユーザーエクスペリエンスと規制上の障壁は、分散型コンピューティングの顧客を引き付ける障害となっています。しかし、OpenAIの最近の動向や米国での規制上の見直しは、許可なし、検閲耐性、分散型AIネットワークの価値提案を強調しています。
    • オンチェーンAI統合、特にAIモデルを利用できるスマートコントラクトは、zkMLテクノロジーおよびオフチェーン計算の検証方法の改良が必要です。包括的なツールの不足、開発者の才能、高コストは採用の障壁となっています。
    • AIエージェントは、ユーザー(またはエージェント自体)が他のサービス、エージェント、または個人と取引するためのウォレットを作成できる仮想通貨に適しています。これは従来の金融レールでは不可能な機能です。より広範な採用のためには、非暗号製品との追加統合が必要です。

条件

人工知能は、計算や機械を使用して、人間の推論や問題解決能力を模倣するものです。

ニューラルネットワークは、人工知能モデルを訓練する方法の一つです。入力を逐次アルゴリズム層を通過させ、望ましい出力が生成されるまでそれらを洗練します。ニューラルネットワークは、出力を変更するために調整できる重みを持つ方程式から構成されています。正確な出力を確保するためには、トレーニングには豊富なデータと計算が必要な場合があります。これはAIモデルを開発する最も一般的な方法の一つです(例:ChatGPTはTransformersに基づくニューラルネットワーク処理に依存しています)。

トレーニングは、ニューラルネットワークや他のAIモデルを開発するプロセスです。正確な出力を生成するためにモデルを正しく解釈するために大量のデータが必要です。トレーニング中、モデルの式の重みが満足のいく出力が生成されるまで継続的に修正されます。トレーニングには非常に高いコストがかかることがあります。たとえば、ChatGPTは自社のGPUを何万台も使用してデータを処理しています。リソースの少ないチームは、しばしばAmazon Web Services、Azure、Google Cloudなどの専門のコンピューティングプロバイダに頼ることがあります。

推論とは、AIモデルを実際に使用して出力や結果を得ることです(例えば、暗号資産とAIの交差点に関する論文のアウトラインを作成するためにChatGPTを使用すること)。推論はトレーニングプロセス全体および最終製品で使用されます。トレーニングが完了した後でも、その運用コストは高くなる場合がありますが、計算コストが高くなることはありません。

ゼロ知識証明(ZKP)は、基礎となる情報を明らかにせずに声明を検証することができます。これは、暗号通貨において2つの主要な理由で役立ちます:1)プライバシー、2)スケーリング。プライバシーに関しては、ユーザーが機密情報(例:ウォレット内にいくらのETHがあるか)を明らかにせずに取引することを可能にします。スケーリングに関しては、オフチェーンの計算をオンチェーンで再実行するよりも迅速に証明することができます。これにより、ブロックチェーンやアプリケーションが、オフチェーンで安価に計算を実行し、その後にオンチェーンでそれらを検証することができるようになります。ゼロ知識とEthereum仮想マシンにおける役割についての詳細は、Christine KimによるzkEVMs:Ethereumスケーラビリティの未来に関するレポートをご覧ください。

AI/暗号資産マーケットマップ

人工知能と暗号資産を統合するプロジェクトは、まだ大規模なオンチェーンの人工知能インタラクションをサポートするために必要な基盤を構築しています。

分散コンピューティング市場は、主にグラフィック処理ユニット(GPU)の形で提供される膨大な物理ハードウェアを提供するために浮上しています。これらの両面市場は、コンピューティングを貸し出す人々と貸し出しを求める人々をつなぎ、価値の転送と計算の検証を容易にします。分散コンピューティングでは、いくつかの追加機能を提供するサブカテゴリが浮上しています。双方向市場に加えて、このレポートでは検証可能なトレーニングと出力の微調整を提供する機械学習トレーニングプロバイダや、AIを可能にするために計算とモデル生成をリンクさせるプロジェクト(通常はインテリジェントインセンティブネットワークと呼ばれる)も紹介しています。

zkMLは、経済的に実現可能でタイムリーな方法でチェーン上で検証可能なモデル出力を提供することを目指すプロジェクトの新興の焦点分野です。これらのプロジェクトは、主にアプリケーションが重い計算リクエストをオフチェーンで処理し、その後、検証可能な出力をチェーン上に投稿することを可能にし、オフチェーンの作業量が完了し正確であることを証明します。zkMLは現在、高価で時間がかかりますが、解決策としての利用が増えています。これは、zkMLプロバイダーとDeFi / ゲームアプリケーションとの統合の数が増えており、AIモデルを活用したいと考えています。

計算の十分な供給とオンチェーン計算を検証する能力は、オンチェーンAIエージェントへの扉を開きます。エージェントは、ユーザーに代わって要求を実行できるトレーニング済みのモデルです。エージェントは、オンチェーン体験を大幅に向上させる機会を提供し、ユーザーがチャットボットと会話するだけで複雑なトランザクションを実行できるようにします。ただし、現在のところ、エージェント プロジェクトは、簡単かつ迅速に展開するためのインフラストラクチャとツールの開発に重点を置いています。

分散コンピューティング

概要

人工知能はモデルのトレーニングと推論を行うために広範な計算を必要とします。過去10年間、モデルがますます複雑になるにつれ、計算の需要は爆発的に増加しています。たとえば、OpenAIは、2012年から2018年までの間、自社のモデルの計算需要が2年ごとに倍増し、その後は3か月半ごとに倍増するようになったと観察しています。これにより、GPUへの需要が急増し、一部の暗号資産マイナーは自社のGPUをクラウドコンピューティングサービス提供に再利用しています。計算へのアクセス競争が激化し、コストが上昇する中、一部のプロジェクトは分散型コンピューティングソリューションを提供するために暗号技術を活用しています。これにより、競争力のある価格でオンデマンドで計算を提供し、チームが手頃な価格でモデルのトレーニングと実行を行えるようになります。場合によっては、そのトレードオフにはパフォーマンスとセキュリティが関わってくることがあります。

最先端のGPU(たとえばNvidiaが製造するもの)への需要は非常に大きいです。 9月に、TetherはドイツのビットコインマイナーNorthern Dataに出資し、報道によると1万台のH100 GPU(AIトレーニング用の最も高度なGPUの1つ)を4200万ドルで購入しました。 一流のハードウェアを入手するまでの待ち時間は、多くの場合、少なくとも6か月以上かかることがあります。 さらに悪いことに、企業はしばしば利用しないかもしれない計算量を確保するために長期契約に署名する必要があります。 これにより、計算リソースは利用可能ですが市場でアクセスできない状況が生じる可能性があります。 分散コンピューティングシステムは、通知を受けてすぐに計算所有者が余剰容量をサブリースできる副次的市場を作成することで、これらの市場の非効率性に対処するのに役立ちます。

競争力のある価格設定とアクセシビリティを超えて、分散型コンピューティングの主要な価値提案は、検閲耐性です。最先端のAI開発は、ますます優れた計算能力とデータアクセス能力を持つ大手テック企業によって支配されるようになっています。2023年のAIインデックス年次報告書で強調された最初の重要なテーマは、学界を凌駕し、AIモデルの開発において産業が主導権を握り、数人のテックリーダーの手に集中させていることでした。これは、これらのテック企業が規制を推進し、制御できないAI開発を制限するために活動した後、AIモデルの基盤となる規範や価値を確立する上で重要な影響力を持つ可能性について懸念が高まっています。

分散コンピューティングの垂直

最近数年間には、それぞれが独自の焦点とトレードオフを持ついくつかの分散コンピューティングモデルが現れています。

一般化されたコンピューティング

広く言えば、Akash、io.net、iExec、およびCudosなどのプロジェクトは、分散コンピューティングの応用であり、データや一般的な計算ソリューションを超えて、AIトレーニングや推論のための専門計算へのアクセスを提供しています。 Akashは、Cosmos SDKを使用しているステークネットワークのためのプルーフオブステークネットワークとして唯一の完全なオープンソースの「スーパークラウド」プラットフォームとして際立っています。 AkashのネイティブトークンであるAKTは、ネットワークを保護し、参加を促進するための支払い手段として機能します。 2020年にローンチされたAkashのメインネットは、最初は許可されていないクラウドコンピューティングマーケットプレイスに焦点を当て、ストレージとCPUのリースサービスを提供していました。 2023年6月、AkashはGPU中心のテストネットを導入し、9月にGPUメインネットのローンチを行い、AIトレーニングと推論のGPUレンタルを可能にしました。

Akashエコシステムは、コンピューティングリソースを求めるテナントと、コンピュートサプライヤーであるプロバイダーという2つの主要な参加者で構成されています。リバースオークションプロセスによって、テナントとプロバイダーのマッチングが行われ、テナントは好みのサーバーの場所やハードウェアタイプ、予算などを含むコンピュート要件を投稿します。その後、プロバイダーは最低入札者がそのタスクを受け取るように入札します。バリデータはネットワークの整合性を維持し、現在のバリデータの数は100人までで、将来的に増加する予定です。バリデータとしての参加は、現在の最低ステークバリデータよりも多くのAKTをステークすることができる人に開かれています。AKT保有者は自分のトークンをバリデータに委任することができ、取引手数料とブロック報酬はAKTで配布されます。さらに、各リースに対して、コミュニティによって決定された「テイクレート」がAkashネットワークにもたらされ、AKT保有者に分配されます。

二次市場

分散型コンピューティングの二次市場は、既存の計算市場における効率の悪さに対処しようとしており、供給制約が企業が必要以上にリソースを蓄積し、クラウドプロバイダーとの長期契約がさらに供給を制限している状況を解消しようとしています。分散型コンピューティングプラットフォームは新しい供給を開放し、計算ニーズを持つ誰もがプロバイダーになれるようにします。

GPUのAIトレーニング用の需要の急増が、Akashのネットワーク利用の持続的な変化につながるかどうかはまだわかりません。歴史的に、Akashは、中央集権的な選択肢と比較してCPUベースのマーケットサービスを70-80%割引で提供してきましたが、この価格戦略は採用を大幅に促進していません。アクティブリースによって測定されたネットワークアクティビティは、2023年第2四半期において、平均33%の計算、16%のメモリ、13%のストレージ利用率で停滞し、オンチェーンの採用にとっては印象的ですが、需要が供給を依然上回っていることを示しています。GPUネットワークのローンチから半年が経過したが、長期的な採用の明確な評価にはまだ早すぎます。ただし、初期の兆候は、A100などの高品質GPUへの需要に主によって、44%の平均GPU利用率を示しており、そのうち90%以上が貸し出されています。

Akashの日々の支出は、GPUの導入以来ほぼ倍増しており、これは他のサービスの利用が増加したことに一部帰因していますが、主に新しいGPUの使用が原因です。

価格は、Lambda CloudやVast.aiなどの中央集権的な対応策と競争力があり、場合によってはそれらよりも高価です。H100やA100などの最高水準のGPUに対する高い需要は、そのような機器の所有者のほとんどが、競争力のある価格設定の市場にそれらをリストすることに興味がないことを意味します。

初期の利益にもかかわらず、採用の障壁は依然として残っています。分散型コンピューティングネットワークは、需要と供給を生成するためにさらなる手順を踏まなければならず、チームは新規ユーザーをどのように引き付けるかを探求しています。例えば、2024年初頭にAkashは、GPUプロバイダー向けにAKTの発行量を増やす提案240を可決し、特にハイエンドGPU向けに供給を増やすためにインセンティブを設けました。チームはまた、潜在的なユーザーに自らのネットワークのライブ機能をデモンストレーションするための概念実証モデルに取り組んでいます。Akashは基本モデルのトレーニングを行っており、Akash GPUを利用したチャットボットや画像生成製品を立ち上げています。同様に、io.netは安定した拡散モデルを開発し、ネットワークパフォーマンスとスケーラビリティをより良く模倣するための新しいネットワーク機能を立ち上げています。

分散機械学習トレーニング

人工知能の要求を満たすことができる一般的なコンピューティングプラットフォームに加えて、機械学習モデルのトレーニングに焦点を当てた一群の専門的なAI GPUサプライヤーも台頭しています。たとえば、Gensynは「力とハードウェアを調整して集合知を構築する」ことをモットーとしており、「誰かが何かをトレーニングしたいと思い、誰かがそれをトレーニングする意思があるなら、そのトレーニングが許可されるべきだ」という考え方を持っています。

このプロトコルには、提出者、ソルバー、検証者、および内部告発者という4つの主要な参加者が関与しています。 提出者は、ネットワークにトレーニングリクエストを含むタスクを提出します。 これらのタスクには、トレーニング目標、トレーニングすべきモデル、およびトレーニングデータが含まれます。 提出プロセスの一環として、提出者は、ソルバーによって必要とされる推定計算コストを前払いする必要があります。

提出後、実際にモデルトレーニングを行うソルバーにタスクが割り当てられます。その後、ソルバーは完了したタスクを検証者に提出し、トレーニングが正しく完了したことを確認するための責任を負います。告発者は検証者が正直に行動することを確認するために担当されています。ネットワークへの告発者の参加を促すために、Gensynは定期的に意図的に誤った証拠を提供し、それらを見破った告発者に報酬を提供する予定です。

AI関連の作業のための計算を提供するだけでなく、Gensynの主要な付加価値提案は、まだ開発中の検証システムです。検証は、GPUプロバイダーによる外部計算が正しく実行されることを確認するために必要です(つまり、ユーザーのモデルが望む方法でトレーニングされることを保証するため)。Gensynは、新しい検証手法である「確率的学習証明、グラフベースの精密プロトコル、Truebitスタイルのインセンティブゲーム」という画期的なアプローチでこの問題に対処しています。これは、バリデータがモデルを完全に再実行する必要がなく、高コストで非効率なプロセスであるモデルを正しく実行したソルバーを確認するための楽観的な解決モデルです。

革新的な検証方法に加えて、Gensynは、中央集権的な代替品や仮想通貨の競合他社と比較して、費用対効果に優れていると主張しています。AWSよりも最大80%安いMLトレーニング価格を提供し、Truebitなどの類似プロジェクトをテストで凌駕しています。

これらの初期結果が分散型ネットワークで大規模に再現されるかどうかはまだ見ていく必要があります。Gensynは、小規模なデータセンターや小売ユーザー、そして最終的にはスマートフォンのような小さなモバイルデバイスといったプロバイダーの余剰の計算能力を利用することを望んでいます。ただし、Gensynチーム自体が認めているように、異種のコンピューティングプロバイダーに依存することは新たな課題をもたらすことになります。

Google CloudやCoreweaveのような中央集権型のプロバイダーでは、コンピューティングコストが高額ですが、計算間の通信(帯域幅とレイテンシ)は安価です。これらのシステムはハードウェア間の通信をできるだけ迅速に行うように設計されています。Gensynは、世界中の誰もがGPUを提供できるようにすることで計算コストを削減しますが、同時にネットワークは遠隔の異種ハードウェア間で計算ジョブを調整する必要があり、通信コストが増加します。Gensynはまだ立ち上がっていませんが、これは分散型の機械学習トレーニングプロトコルの構築時に達成可能なコンセプトの証明です。

分散型総合インテリジェンス

分散コンピューティングプラットフォームは、人工知能の創造方法を設計する可能性も提供します。Bittensorは、Substrate上に構築された分散コンピューティングプロトコルであり、人工知能をどのように協力的な方法に変換するかという問いに取り組んでいます。Bittensorは、AI生成の分散化と商品化を実現することを目指しています。2021年にローンチされ、協力的な機械学習モデルの力を活用して、継続的に改善されたAIを生み出すことを目指しています。

Bittensorは、ネイティブ通貨であるTAOが2100万に供給限界を持ち、4年ごとに半減サイクルを持つビットコインからインスピレーションを得ています(最初の半減は2025年に設定されています)。正しい乱数を生成しブロック報酬を獲得するためにProof of Workを利用するのではなく、Bittensorはマイナーに対して「Proof of Intelligence」を要求し、モデルを実行して推論リクエストに応じて出力を生成することに依存しています。

インセンティブを与えるインテリジェンス

最初、Bittensorは専門家のミックス(MoE)モデルを使用して出力を生成していました。推論リクエストが送信されると、MoEモデルは一般化されたモデルに依存せず、与えられた入力タイプに最も正確なモデルにリクエストを転送します。家を建てることを想像してみてください。様々な専門家を雇って建設プロセスのさまざまな側面(例:建築家、エンジニア、塗装工、建設労働者など)を担当させます。MoEは、これを機械学習モデルに適用し、入力に基づいて異なるモデルの出力を活用しようとします。Bittensorの創設者アラ・シャーバナによる説明では、これは「1人に話すのではなく、賢い人たちの部屋に話して最良の答えを得る」ようなものです。正しいルーティング、正しいモデルへのメッセージ同期、インセンティブの確保に関する課題があるため、この方法はプロジェクトのさらなる開発が行われるまで保留されています。

Bittensorネットワークには、バリデータとマイナーの2つの主要な参加者がいます。バリデータはマイナーに推論リクエストを送信し、出力をレビューし、その品質に基づいてランク付けします。ランキングが信頼性があることを保証するために、バリデータには他のバリデータとのランキングがどれだけ一貫しているかに基づいた「vtrust」スコアが与えられます。バリデータのvtrustスコアが高いほど、より多くのTAOエミッションを受け取ります。これは、バリデータが時間の経過とともにモデルのランキングについて合意に達するように動機づけるためであり、より多くのバリデータがランキングに同意すればするほど、個々のvtrustスコアが高くなります。

マイナーはサーバーとも呼ばれ、実際の機械学習モデルを実行するネットワーク参加者です。バリデーターは、バリデータのクエリに対して最も正確なアウトプットを提供するために競い合い、アウトプットが正確であればあるほど、より多くのTAO排出量を得ることができます。マイナーは、これらの出力を自由に生成できます。例えば、将来的には、BittensorのマイナーがGensynで事前にモデルをトレーニングし、それを使ってTAOの排出量を稼ぐことは十分に可能です。

今日、ほとんどのインタラクションは、バリデータとマイナーの間で直接行われます。バリデータは入力をマイナーに提出し、アウトプット(つまり、モデルトレーニング)をリクエストします。バリデータはネットワーク上でマイナーにクエリを送信し、その応答を受け取った後、マイナーをランク付けしてそのランキングをネットワークに提出します。

PoSに依存する検証者とPoWの一形態であるモデルプルーフに依存するマイナーとの相互作用は、ユマ合意として知られています。これは、マイナーが最高のアウトプットを生産し、TAOエミッションを獲得するためにインセンティブを与え、検証者がマイナーのアウトプットを正確にランク付けし、より高いvtrustスコアを獲得し、TAO報酬を増やすことを目指しており、それによりネットワークの合意メカニズムが形成されます。

サブネットとアプリケーション

Bittensorでのインタラクションには、主にバリデーターがマイナーにリクエストを送信し、その出力を評価することが含まれます。しかし、貢献するマイナーの質が向上し、ネットワークの全体的なインテリジェンスが高まるにつれて、Bittensor は既存のスタックの上にアプリケーション層を作成し、開発者が Bittensor ネットワークにクエリを実行するアプリケーションを構築できるようにしています。

2023年10月、Bittensorは革命アップグレードを通じてサブネットを導入し、この目標達成に向けて重要な一歩を踏み出しました。サブネットとは、特定の振る舞いをインセンティブ化するBittensor上の独立したネットワークです。革命により、誰もがサブネットを作成することに興味を持つことができるようになりました。立ち上げから数か月で、テキストプロンプト、データスクレイピング、画像生成、およびストレージ用のサブネットを含む32以上のサブネットが立ち上げられました。サブネットが成熟し製品レベルに達すると、サブネット作成者はアプリケーション統合も作成し、チームが特定のサブネットをクエリするアプリケーションを構築できるようになります。チャットボット、画像生成ツール、Twitter返信ボット、予測市場などの一部のアプリケーションは存在しますが、Bittensor財団からの資金提供以外に、これらのクエリを受け入れて転送するための公式なインセンティブはありません。

より明確な説明のために、以下に、アプリケーションがネットワークに統合された場合のBittensorの動作例が示されています。

サブネットは、ルートネットワークによって評価されたパフォーマンスに基づいてTAOを獲得します。サブネットのすべての上に位置するルートネットワークは、基本的に特別なサブネットとして機能し、ステークによって管理されます。ルートネットワークのバリデータは、サブネットのパフォーマンスに基づいてサブネットをランク付けし、定期的にTAOのエミッションをサブネットに割り当てます。このように、個々のサブネットはルートネットワークのためのマイナーとして機能します。

Bittensorのビジョン

Bittensorは、プロトコルの機能を拡張して複数のサブネットで知能生成を奨励するために、成長の痛みを依然として経験しています。マイナーは、自分たちのモデルによって実行された高く評価された推論の出力をわずかに変更し、複数のバリアントを提出するなど、より多くのTAOリワードを得るためにネットワークを攻撃する新しい方法を絶えず考案しています。ネットワーク全体に影響を与えるガバナンス提案は、Opentensor Foundationのステークホルダーで構成されたTriumvirateによってのみ提出および実施されます(特に、提案は実施前にBittensorバリデーターで構成されるBittensor Senateの承認が必要です)。プロジェクトのトークノミクスは、TAOのクロスサブネット利用のインセンティブを強化するために変更されています。このプロジェクトは、そのユニークなアプローチで急速に注目を集め、最も人気のあるAIウェブサイトのCEOであるHuggingFaceのCEOは、Bittensorがそのリソースをサイトに追加すべきだと述べています。

最近、コア開発者によって公開された「Bittensor Paradigm」という記事では、チームがBittensorの「何が計測されるかに無関心になる」というビジョンを概説しています。理論的には、これにより、BittensorがTAOによってサポートされる任意の種類の行動をインセンティブ化するサブネットを開発することが可能となります。しかし、これらのネットワークがそのように多様なプロセスを処理するために拡張できることや、潜在的なインセンティブが中央集権化された製品を超えた進歩をもたらすことを証明するという実用上の制限がまだかなりあります。

人工知能モデルのための分散コンピューティングスタックの構築

上記のセクションでは、現在開発中のさまざまなタイプの分散型人工知能(AI)コンピューティングプロトコルについての詳細な概要が提供されています。開発および採用の初期段階では、それらは、DeFiの「お金のレゴ」コンセプトに類似した、「AIビルディングブロック」の作成を促進する生態系の基盤を築いています。許可されていないブロックチェーンの組み合わせ可能性により、各プロトコルが別のプロトコルの上に構築される可能性があり、より包括的な分散型AIエコシステムが作成されます。
例えば、これはAkash、Gensyn、およびBittensorが推論リクエストに応答するためにどのように相互作用するかを示しています。

これは、将来起こり得ることの一例に過ぎず、現在のエコシステム、既存のパートナーシップ、または潜在的な結果を表すものではないことを理解することが重要です。相互運用性の制限と以下に説明するその他の考慮事項により、今日の統合の可能性は大幅に制限されます。さらに、流動性の断片化と複数のトークンを使用する必要性は、ユーザーエクスペリエンスを損なう可能性があると、AkashとBittensorの創設者は指摘しています。

その他の分散型製品

コンピューティング以外にも、暗号通貨空間における新たなAIエコシステムをサポートするために、いくつかの分散型インフラストラクチャサービスが導入されています。これらすべてをリストアップすることは、このレポートの範囲を超えていますが、いくつかの興味深く実例があります。

  • Ocean: ユーザーがデータトークンを使用してデータを表すデータNFTを作成し、購入できる分散型データマーケットプレイス。ユーザーは自分のデータを収益化し、それに対するより大きな主権を持つことができ、同時にAIチームにモデルの開発とトレーニングに必要なデータへのアクセスを提供することができます。
  • Grass:ユーザーが余剰帯域幅をAI企業に売却し、それを利用してインターネットからデータを収集することができる分散型帯域幅マーケットプレイス。Wyndネットワーク上に構築されており、これにより個人は自分の帯域幅を収益化することができ、帯域幅の購入者には個々のユーザーがオンラインで見るものについてより多様な視点を提供します(個々のインターネットアクセスはしばしばIPアドレスに基づいてカスタマイズされているため)。
  • HiveMapper:日常の運転手から収集された情報を組み込んだ分散型マップ製品を構築します。HiveMapperは、ユーザーのダッシュボードカメラから収集された画像を解釈するためにAIに依存し、強化人間学習フィードバック(RHLF)を通じてAIモデルを微調整するのを手伝ってユーザーにトークンを recompenses。

これらの例は、ほぼ無限の可能性を示しており、AIモデルをサポートする分散型マーケットモデルやそれらを開発するために必要な周辺インフラを探求する機会がほとんど制限されていないことを示しています。現在、これらのプロジェクトのほとんどは概念実証段階にあり、包括的なAIサービスを提供するために必要なスケールで運用できることを証明するためにさらなる研究と開発が必要です。

見通し

分散型コンピューティング製品はまだ開発初期段階にあります。彼らはまさに最先端のコンピューティング機能を導入し始め、製品で最も強力な人工知能モデルを訓練することが可能です。有意義な市場シェアを獲得するためには、集中型の代替手段に対して実際の利点を実証する必要があります。より広範な採用のための潜在的な誘因には、

  • GPU の需要と供給。GPUの不足とコンピューティング需要の急激な増加が相まって、GPUの軍拡競争が進んでいます。GPUの制限により、OpenAIはプラットフォームへのアクセスが制限されている場合があります。Akash や Gensyn などのプラットフォームは、ハイパフォーマンス コンピューティングを必要とするチームに、コスト競争力のある代替手段を提供できます。今後6〜12か月は、分散型コンピューティングプロバイダーにとって、より広範な市場アクセスの欠如のために分散型製品を検討せざるを得ない新しいユーザーを引き付ける特にユニークな機会を提供します。さらに、MetaのLLaMA2などのオープンソースモデルのパフォーマンスがますます向上しているため、ユーザーは効果的な微調整されたモデルを展開する際に同じ障壁に直面することがなくなり、コンピューティングリソースが主なボトルネックになっています。しかし、プラットフォームが存在するだけでは、十分なコンピューティングの供給とそれに対応する消費者の需要は保証されません。ハイエンドGPUの調達は依然として困難であり、コストは必ずしも需要の主な動機ではありません。これらのプラットフォームは、分散型コンピューティングオプション(コスト、検閲耐性、稼働時間と回復力、アクセス性など)を使用してスティッキーユーザーを蓄積することの実際の利点を実証する上で課題に直面します。GPU インフラストラクチャへの投資と建設が驚異的なペースで進んでいるため、迅速に行動する必要があります。
  • 規制。規制は、分散型コンピューティングの動きに対する障壁であり続けています。短期的には、明確な規制がないため、プロバイダーとユーザーの両方がこれらのサービスを使用する際に潜在的なリスクに直面することになります。プロバイダーが計算を提供したり、購入者が無意識のうちに制裁対象のエンティティから計算を購入したりした場合はどうなりますか?ユーザーは、中央集権的な制御と監視を欠いた分散型プラットフォームを使用することを躊躇するかもしれません。プロトコルは、プラットフォームに制御を組み込んだり、既知のコンピューティングプロバイダー(つまり、Know Your Customer(KYC)情報を提供したプロバイダー)にのみアクセスするフィルターを追加したりすることで、これらの懸念を軽減しようとしますが、コンプライアンスを確保しながらプライバシーを保護するには、より堅牢なアプローチが必要です。短期的には、これらの問題に対処するためにプロトコルへのアクセスを制限するKYCおよびコンプライアンスプラットフォームが出現する可能性があります。さらに、米国における新たな規制の枠組みの可能性をめぐる議論(人工知能の安全、信頼性、信頼できる開発と利用の促進に関する大統領令の発令に代表される)は、GPUアクセスをさらに制限する規制措置の可能性を浮き彫りにしています。
  • 検閲。規制は両刃の剣であり、分散型コンピューティング製品はAIへのアクセスを制限する行動から利益を得ることができる。行政命令を超えて、OpenAIの創設者であるSam Altmanは議会で証言し、規制当局はAI開発のためのライセンスを発行すべきだと述べた。AI規制に関する議論は始まったばかりだが、アクセスを制限したりAIの能力を検閲する試みは、そのような障壁に直面しない分散型プラットフォームの採用を加速させる可能性がある。また、11月のOpenAIのリーダーシップ変更(または変更のなさ)は、最も強力な既存のAIモデルの意思決定権をわずかな人々に委託することは危険であることをさらに示している。さらに、すべてのAIモデルは意図的であろうとなかろうと、それを作成した者の偏見を必ず反映している。これらの偏見を排除する1つの方法は、モデルをできるだけオープンにして微調整やトレーニングを行い、どこでも誰もがさまざまな偏見を持つモデルにアクセスできるようにすることだ。
  • データプライバシー。分散コンピューティングは、ユーザーにデータ主権を提供する外部データおよびプライバシーソリューションと統合された際に、中央集権的な代替手段よりも魅力的になる可能性があります。サムスンは、エンジニアがチップ設計にChatGPTを使用し、機密情報をChatGPTに漏洩していることに気づいた際、被害者となりました。Phala NetworkとiExecは、ユーザーデータを保護するためにSGXセキュアエンクレーブを提供し、進行中の完全ホモモーフィック暗号化の研究により、プライバシーが保証された分散コンピューティングがさらに可能になるかもしれません。人工知能がさらに私たちの生活に統合されるにつれ、ユーザーはプライバシー保護されたアプリケーションでモデルを実行できる能力をますます重視するでしょう。ユーザーはまた、データコンポジションサービスのサポートが必要です。これにより、モデル間でデータをシームレスに移行できます。
  • ユーザーエクスペリエンス(UX)。ユーザーエクスペリエンスは、あらゆる種類の暗号資産アプリケーションやインフラの普及を広げる上で重要な障壁のままです。これは分散コンピューティング製品においても同様であり、開発者が暗号通貨と人工知能の両方を理解する必要があるため、いくつかのケースでは悪化しています。改善は、ブロックチェーンとのやり取りを結合し、抽出するなど、基本から始める必要があります。そうすることで、現在の市場リーダーと同じような高品質の出力を提供できます。多くの操作可能な分散コンピューティングプロトコルが安価な製品を提供しているにもかかわらず、定期的に利用されることに苦労している難しさが明白です。

スマートコントラクトとzkML

スマートコントラクトは、どんなブロックチェーンエコシステムにおいても基盤となります。特定の条件の下で自動的に実行され、信頼できる第三者の必要性を軽減または排除することで、DeFiなどの複雑な分散型アプリケーションの作成を可能にします。ただし、スマートコントラクトの機能は、更新する必要がある事前に設定されたパラメータに基づいて動作するため、まだ限られています。

例えば、貸借プロトコル用に展開されたスマートコントラクトは、特定の貸借価値比率に基づいてポジションがいつ清算されるべきかに関する仕様が含まれています。静的な環境では有用ですが、これらのスマートコントラクトは、リスク許容度の変化に適応するために常に更新が必要であり、中央集権的なプロセスを介して管理されていない契約には課題があります。たとえば、分散型ガバナンスプロセスに依存するDAOは、システムリスクに対して十分に迅速に反応することができないかもしれません。

スマートコントラクトに人工知能(つまり、機械学習モデル)を統合することは、機能性、セキュリティ、効率を向上させる潜在的な方法であり、全体的なユーザーエクスペリエンスを向上させることができます。しかし、これらの統合は追加のリスクをもたらす可能性もあります。これらのスマートコントラクトの基盤となるモデルが悪用されたり、ロングテールの状況を解釈できなかったりする可能性があるためです(データ入力が不足しているため、ロングテールの状況をモデルがトレーニングするのは困難です)。

ゼロ知識機械学習(zkML)

機械学習は複雑なモデルを実行するためにかなりの計算が必要であり、高コストのためにスマートコントラクトで直接AIモデルを実行することは実用的ではありません。例えば、イールド最適化モデルを提供するDeFiプロトコルは、これらのモデルをオンチェーンで実行することが困難であり、過大なガス料金が発生してしまいます。1つの解決策は、基礎となるブロックチェーンの計算能力を向上させることです。しかしながら、これはチェーンの検証者の要件を高め、分散化を損なう可能性があります。代わりに、いくつかのプロジェクトは、zkMLの使用を探っており、オンチェーンの計算を必要とせずに、信頼できる方法で出力を検証することを目指しています。

zkMLの有用性を示す一般的な例として、他のユーザーがデータをモデルに入力し、対応するモデルが正しく実行されたことを検証する必要がある場合が挙げられます。分散型コンピューティングプロバイダーを利用してモデルをトレーニングする開発者は、これらのプロバイダーが安価なモデルを使用し、ほとんど気づかれない差異を持つ出力を生成することでコストを削減することを心配するかもしれません。zkMLを使用することで、コンピューティングプロバイダーはデータをモデルに入力し、その後、チェーン上で検証可能な証明を生成することができ、特定の入力に対するモデルの出力が正しいことを証明します。このシナリオでは、モデルプロバイダーは、出力を生成した基盤となる重みを公開せずに、モデルを提供するという追加の利点を得ます。

逆も可能です。ユーザーがデータ上でモデルを実行したいが、プライバシー上の懸念からモデルプロジェクトにデータへのアクセスを提供したくない場合(例:医療検査や独自の業務情報など)、データを共有せずにモデルを実行し、その後、正しいモデルを実行したことを証明することができます。これらの可能性は、AIとスマートコントラクト機能を統合するための設計空間を大幅に拡大し、難しい計算上の制約に対処します。

インフラストラクチャとツール

zkML分野の初期段階を考慮すると、開発は主に、チームがモデルや出力物をチェーン上で検証可能な証明に変換するために必要とするインフラストラクチャやツールの構築に焦点を当てています。これらの製品は、可能な限りゼロ知識の側面を抽象化しています。

EZKL と Giza は、機械学習モデルの実行の検証可能な証明を提供することで、そのようなツールを構築する 2 つのプロジェクトです。どちらも、チームが機械学習モデルを構築し、これらのモデルが信頼できる方法でオンチェーンで結果を検証できるように実行できるようにするのに役立ちます。どちらのプロジェクトも、Open Neural Network Exchange(ONNX)を使用して、TensorFlowやPytorchなどの一般的な言語で記述された機械学習モデルを標準形式に変換します。次に、実行時にzkプルーフも生成するこれらのモデルのバージョンを出力します。EZKLはオープンソースでzk-SNARKを生成し、Gizaはクローズドソースでzk-STARKを生成します。現在、どちらのプロジェクトも EVM とのみ互換性があります。

ここ数ヶ月で、EZKLはzkMLソリューションの強化において大きな進歩を遂げ、主にコスト削減、セキュリティの向上、プルーフ生成の高速化に重点を置きました。例えば、2023年11月、EZKLは新しいオープンソースのGPUライブラリを統合し、アグリゲーションプルーフタイムを35%短縮しました。1月、EZKLは、EZKLプルーフを使用する際に、ハイパフォーマンスコンピューティングクラスタを統合し、コンカレントジョブシステムを調整するためのソフトウェアソリューションであるLilithをリリースしました。Gizaの独自性は、検証可能な機械学習モデルを作成するためのツールを提供し、Hugging Faceに相当するWeb3の実装を計画し、zkMLコラボレーションとモデル共有のためのユーザーマーケットプレイスを開き、最終的には分散型コンピューティング製品を統合することにあります。1月、EZKLは、EZKL、Giza、RiscZero(後述)のパフォーマンスを比較したベンチマーク評価を発表し、プルーフタイムとメモリ使用量の高速化を示しました。

Modulus Labsは現在、AIモデルに特化した新しいゼロ知識(zk)証明技術を開発しています。Modulusは「Intelligent Cost」というタイトルの論文を発表し、AIモデルをオンチェーンで実行すると法外に高いコストが発生することを示唆しています。2023年1月に発表されたこの論文では、既存のzkプルーフシステムをベンチマークし、zkプルーフの機能の改善とAIモデル内のボトルネックを特定しています。その結果、現在の製品は、大規模なAIアプリケーションには高価で非効率的であることが明らかになりました。Modulusは、最初の研究に基づいて、AIモデルのコストと証明時間を削減し、スマートコントラクトへの大規模な統合のためにプロジェクトを経済的に実行可能にすることを目的とした、特殊なzk証明者であるRemainderを11月に発売しました。彼らの研究はプロプライエタリであり、言及されたソリューションに対してベンチマークを行うことは不可能ですが、最近、暗号化と人工知能に関するVitalikのブログ投稿で引用されました。

zkML領域の将来的な成長には、ツールやインフラの開発が不可欠です。これにより、検証可能なオフチェーン計算の展開における摩擦やzkチームの必要性が大幅に低減されます。暗号ネイティブでない機械学習の実践者向けの安全なインターフェースを作成し、彼らのモデルをオンチェーンに持ち込むことで、アプリケーションは本当に革新的なユースケースを試すことができます。さらに、これらのツールは、zkMLのより広範な採用に向けた主要な障壁である、ゼロ知識、機械学習、暗号の交差点で働くことに興味を持つ知識豊富な開発者の不足を解消します。

コプロセッサ

開発中の他のソリューションは、「コプロセッサ」として言及されており(RiscZero、Axiom、Ritualを含む)、オフチェーンの計算をチェーン上で検証するなど、さまざまな役割を果たしています。EZKL、Giza、Modulusと同様に、彼らの目標は完全にzkプルーフ生成プロセスを抽象化し、オフチェーンプログラムを実行し、チェーン上で検証可能な証拠を生成できるゼロ知識仮想マシンを作成することです。RiscZeroとAxiomは、一般的な用途のコプロセッサとして簡単なAIモデルに対応している一方、Ritualは特にAIモデルとの使用を目的として構築されています。

Ritual's first instance, Infernet, includes an Infernet SDK that allows developers to submit inference requests to the network and receive outputs and optional proofs in return. Infernet nodes process these off-chain computations before returning outputs. For example, a DAO could establish a process ensuring all new governance proposals meet certain prerequisites before submission. Each time a new proposal is submitted, the governance contract triggers an inference request through Infernet, invoking an AI model trained specifically for DAO governance. This model reviews the proposal to ensure all necessary standards are met and returns outputs and evidence to approve or reject the proposal submission.

来年にわたり、Ritualチームは、Ritualスーパーチェーンとして知られるインフラストラクチャレイヤーを形成するためにさらなる機能を導入する予定です。議論されている多くのプロジェクトは、Ritualへのサービスプロバイダーとして統合される可能性があります。Ritualチームはすでに証明生成のためにEZKLと統合しており、近く他の主要なプロバイダーからの機能を追加するかもしれません。Ritual上のInfernetノードは、Akashやio.netのGPUを利用し、Bittensorサブネットでトレーニングされたクエリモデルを利用することもできます。彼らの究極の目標は、あらゆるネットワークとあらゆるワークロードに対して、機械学習やその他のAI関連タスクのためのオープンAIインフラストラクチャの優先プロバイダーになることです。

アプリケーション

zkMLは、元々リソースに制約のあるブロックチェーンと、膨大な計算リソースとデータリソースを要求する人工知能との間の二分法を調整するのに役立っています。 Gizaの創設者が述べるように、「ユースケースは非常に豊富です...これは、イーサリアムの初期のスマートコントラクトのユースケースを尋ねるのと少し似ています...私たちがやっていることは、スマートコントラクトのユースケースを拡大しているだけです。」ただし、現在の開発は主にツールとインフラのレベルで進行しています。アプリケーションはまだ探索段階にあり、チームはzkMLを使用したモデルの実装によって生み出される価値がその複雑さとコストを上回ることを証明するという課題に直面しています。

現在のアプリケーションには、

  • 分散型金融(DeFi)。zkMLはスマートコントラクトの機能を強化し、DeFiの設計空間をアップグレードします。DeFiプロトコルは、機械学習モデルが利回りや取引戦略の生成、リスク分析、ユーザーエクスペリエンスなどに活用するための検証可能で不変のデータを豊富に提供します。たとえば、Giza は Yearn Finance と協力して、Yearn の新しい v3 コンテナーの概念実証自動リスク評価エンジンを構築しました。Modulus Labsは、Lyra Financeと協力して機械学習をAMMに統合し、Ion Protocolと協力してバリデーターのリスクを分析するためのモデルを実装し、AIがサポートするNFT価格情報の検証でUpshotを支援しています。NOYA(EZKLを使用)やMozaicなどのプロトコルは、独自のオフチェーンモデルへのアクセスを提供し、ユーザーはオンチェーンデータの入力と証明を検証しながら、自動化された流動性マイニングにアクセスできるようにします。Spectral Financeは、CompoundまたはAaveの借り手がローンをデフォルトする可能性を予測するためのオンチェーンクレジットスコアリングエンジンを開発しています。zkMLにより、これらのいわゆる「De-Ai-Fi」製品は、今後数年間でますます人気が高まる可能性があります。
  • ゲーム。ゲームは長い間、公共のブロックチェーンを通じての破壊と向上が考えられてきました。zkMLはオンチェーンの人工知能ゲームを可能にします。Modulus Labsはシンプルなオンチェーンゲームの概念実証を実現しました。“Leela vs the World”は、ユーザーがAIチェスモデルに対抗するゲーム理論に基づいたチェスゲームで、zkMLはLeelaがゲームの実行モデルに基づいて行うすべての動きを検証します。同様に、チームはEZKLフレームワークを使用してシンプルな歌唱コンテストやオンチェーンの〇×ゲームを構築しています。CartridgeはGizaを使用して完全にオンチェーンのゲームを展開するチームに対応し、最近では障害物を避けようとする車のためのより良いモデルを作成するためにユーザーが競うシンプルなAIドライビングゲームを強調しています。これらの概念実証は単純ですが、ゲーム内経済とやり取りできる複雑なNPCアクターのようなより複雑なオンチェーン検証が可能な将来の実装を指し示しています。「AI Arena」では、プレイヤーが自分の戦士を育成してAIモデルとして展開できるSuper Smash Brothersゲームに見られるように、より複雑なNPCアクターがゲーム内経済とやり取りできる未来の実装が可能です。
  • ID、来歴、プライバシー。暗号通貨は、真正性を検証し、AIが生成/操作したコンテンツやディープフェイクの増大する問題と戦うために使用されてきました。zkMLは、これらの取り組みを前進させることができます。WorldCoinは、ユーザーが虹彩をスキャンして一意のIDを生成する必要があるID検証ソリューションです。将来的には、生体認証IDは、暗号化を使用して個人のデバイスで自己ホストされ、ローカルで実行されるモデルを使用して検証される可能性があります。その後、ユーザーは身元を明かすことなく生体認証の証拠を提供できるため、プライバシーを確保しながらシビル攻撃から防御できます。これは、モデルを使用して医療データや画像を分析して病気を検出したり、出会い系アプリでの性格の検証やマッチングアルゴリズムの開発、保険会社や融資機関が財務情報を確認する必要があるなど、プライバシーが要求される他の推論にも適用できます。

見通し

zkMLは実験段階のままであり、ほとんどのプロジェクトはインフラ基盤プリミティブや概念の証明に焦点を当てています。現在の課題には、計算コスト、メモリ制限、モデルの複雑さ、限られたツールやインフラ、開発者の才能などがあります。要するに、zkMLが消費者向け製品で必要とされる規模で実装されるにはかなりの作業が必要です。

しかしながら、この分野が成熟し、これらの制約が解消されるにつれて、zkMLは人工知能と暗号化を統合する主要な要素となるでしょう。基本的に、zkMLは、オンチェーンで実行するのと同じか類似したセキュリティ保証を保ちながら、オフチェーン計算の任意のスケールをオンチェーンにもたらすことを約束しています。しかし、このビジョンが実現する前に、技術の早期採用者は引き続き、zkMLのプライバシーとセキュリティを代替手段の効率とのバランスを取る必要があります。

人工知能エージェント

人工知能エージェント

人工知能と暗号資産の最もエキサイティングな統合の1つは、人工知能エージェントを用いた実験です。 エージェントとは、AIモデルを使用してタスクを受け取り、解釈し、実行できる自律型ロボットのことです。 これには、常に利用可能で好みに合わせて調整された個人アシスタントを持つことから、リスク志向に基づいて投資ポートフォリオを管理および調整するための金融エージェントを雇うことまで様々なことが含まれます。

暗号通貨がパーミッションレスでトラストレスな決済インフラを提供していることを考えると、エージェントと暗号通貨はうまく統合することができます。トレーニングが完了すると、エージェントはウォレットを持ち、スマートコントラクトを使用して自分で取引を行うことができるようになります。たとえば、今日のエージェントは、インターネット上の情報をスクレイピングし、モデルに基づいて予測市場で取引することができます。

エージェントプロバイダー

Morpheusは、2024年にEthereumとArbitrumで立ち上げられた最新のオープンソースエージェントプロジェクトの1つです。そのホワイトペーパーは2023年9月に匿名で公開され、Erik Vorheesなどの著名な人物を含むコミュニティ形成や構築の基盤を提供しています。ホワイトペーパーには、ユーザーのウォレットによって管理され、スマートコントラクトとやり取りできるオープンソースのLLMがダウンロードできるスマートエージェントプロトコルが含まれています。エージェントが安全にやり取りできるスマートコントラクトを決定するのにスマートコントラクトのランキングを使用し、処理されたトランザクションの数などの基準に基づいています。

また、このホワイトペーパーでは、スマートエージェントプロトコルの実行に必要なインセンティブ構造やインフラストラクチャなど、Morpheusネットワークを構築するためのフレームワークも提供します。これには、コントリビューターがエージェントと対話するためのフロントエンドを構築するためのインセンティブ、開発者が相互対話用のプラグインエージェントを構築するためのAPI、およびユーザーがエッジデバイスでエージェントを実行するために必要な計算とストレージにアクセスするためのクラウドソリューションが含まれます。プロジェクトの最初の資金調達は2月上旬に開始され、完全なプロトコルは2024年の第2四半期に開始される予定です。

分散型自律インフラストラクチャネットワーク(DAIN)は、Solana上でエージェント間エコノミーを構築する新しいエージェントインフラストラクチャプロトコルです。DAINの目標は、異なる企業のエージェントが共通のAPIを介してシームレスに相互作用できるようにすることであり、これによりAIエージェントの設計空間が大幅に拡大し、web2およびweb3製品の両方とやり取りできるエージェントに焦点を当てています。1月に、DAINはAsset Shieldとの最初のパートナーシップを発表し、ユーザーがマルチシグに「エージェント署名者」を追加し、取引を解釈し、ユーザーが設定したルールに基づいて承認/拒否する能力を持たせることができるようになりました。

Fetch.AIは、最も早く展開されたAIエージェントプロトコルの1つであり、FETトークンとFetch.AIウォレットを使用してチェーン上でエージェントを構築、展開、利用するためのエコシステムを開発しています。このプロトコルは、エージェントを使用するための包括的なツールやアプリケーションを提供しており、エージェントとの相互作用や注文に関するウォレット内機能も提供しています。

Fetchチームの元メンバーによって設立されたAutonolasは、分散型AIエージェントを作成および使用するためのオープンマーケットです。Autonolasは、開発者がPolygon、Ethereum、Gnosis Chain、Solanaなどの複数のブロックチェーンにプラグインできるオフチェーンのホスト型AIエージェントを構築するための一連のツールも提供しています。現在、予測市場やDAOガバナンスなど、アクティブなエージェントの概念実証製品がいくつかあります。

SingularityNetは、専門のAIエージェントが展開され、他のエージェントやエージェントが複雑なタスクを実行するために雇用できる分散型のAIエージェントのマーケットプレイスを構築しています。 AlteredStateMachineなどの他の企業は、AIエージェントをNFTと統合する取り組みを進めています。ユーザーはランダムな属性を持つNFTを作成し、これによってさまざまなタスクで利点と欠点が得られます。 これらのエージェントは、それらをゲーム、DeFi、または仮想アシスタントで使用するために特定の属性を強化するためにトレーニングされ、他のユーザーと取引することができます。

これらのプロジェクト全体では、協力して作業を行うだけでなく、一般的な人工知能を構築するのにも役立つエージェントの将来のエコシステムを想定しています。本当に複雑なエージェントは、任意のユーザータスクを自律的に完了する能力を持つでしょう。例えば、完全に自律的なエージェントは、他のエージェントを雇う方法を見つけ、APIを統合し、その後にタスクを実行することができるようになります。旅行予約ウェブサイトなどの外部APIと統合済みであることを確認する必要はありません。ユーザーの視点からは、エージェントがタスクを完了できるかどうかをチェックする必要はなく、エージェント自体がそれを独自に決定することができます。

BitcoinとAIエージェント

2023年7月、Lightning LabsはLightning Network上でエージェントを利用するための概念実装を発表し、LangChainによってBitcoinスイートと名付けられました。この製品は特に興味深いものであり、それはWeb 2の世界でますます深刻になっている問題に取り組むことを目指しています—Webアプリケーションのゲート付きで高価なAPIキー。

LangChainは、エージェントがBitcoinを購入、売却、保有し、APIキーをクエリしたりマイクロペイメントを送信したりできるツールセットを開発者に提供することで、この問題に対処しています。従来の支払いレールでは、手数料が高すぎるため、マイクロペイメントは困難ですが、ライトニングネットワークでは、エージェントは極めて低コストで毎日無制限のマイクロペイメントを送信できます。LangChainのL402支払いメータリングAPIフレームワークと組み合わせて使用すると、企業は利用量の増減に基づいてAPIのアクセスコストを調整でき、単一かつ高額な標準を設定するのではなく、アクセスコストを調整できます。

将来、チェーン活動は主にエージェントとエージェントの相互作用によって推進されることになり、エージェントが過大なコストなく互いにやり取りできるメカニズムが必要とされます。この初期の例は、許可なく経済的に効率的な支払いレールでエージェントを使用する可能性を示しており、新しい市場や経済的な相互作用の可能性を開くものです。

見通し

エージェントの分野はまだ初期段階にあります。プロジェクトは、単純なタスクを処理できる機能的なエージェントを立ち上げ始めたばかりで、アクセスは通常、経験豊富な開発者やユーザーに限られています。しかし、時間の経過とともに、人工知能エージェントが仮想通貨に与える最も重要な影響の1つは、すべての垂直方向でのユーザーエクスペリエンスの向上です。取引は、クリックベースからテキストベースに移行し、ユーザーは会話型インターフェースを通じてオンチェーンのエージェントとやり取りできるようになります。Dawn Walletのようなチームは既にチャットボットウォレットを立ち上げており、ユーザーがオンチェーンでやり取りできるようにしています。

また、Web 2でエージェントがどのように運用されるかは未だに不明です。なぜなら、金融レールは24時間365日稼働できない規制された銀行機関に依存しており、シームレスな国境を越えた取引を行うことができません。Lyn Aldenが強調しているように、返金の不足やマイクロ取引の処理能力は、クレジットカードと比較して特に魅力的なものとなります。しかし、もしエージェントが取引の一般的な手段となった場合、既存の支払いプロバイダーやアプリケーションは迅速に適応し、既存の金融レール上で運用するためのインフラを導入することが予想されます。その結果、暗号資産の利用による一部の利点が低下することになるでしょう。

現在、エージェントは、特定のインプットが特定のアウトプットを保証する決定論的な暗号通貨トランザクションに限定されている可能性があります。どちらのモデルも、複雑なタスクの実行方法を理解するためのこれらのエージェントの機能を概説しており、ツールは完了できるタスクの範囲を拡大していますが、どちらもさらなる開発が必要です。暗号エージェントが新しいオンチェーン暗号通貨のユースケースを超えて有用になるためには、規制の明確化とともに、支払い形態としての暗号通貨のより広範な統合と受け入れが必要です。しかし、これらのコンポーネントが発展するにつれて、エージェントは分散型コンピューティングとzkMLソリューションの最大の消費者の1つになり、非決定論的な方法であらゆるタスクを自律的に受信して解決する態勢を整えています。

結論

AIは、暗号通貨にWeb2で見られた革新を導入し、インフラ開発からユーザーエクスペリエンスやアクセシビリティまですべてを向上させます。しかし、プロジェクトはまだ開発初期段階にあり、暗号通貨とAIの近い将来の統合は主にオフチェーンの統合によって推進されるでしょう。

Copilotなどの製品は、「開発者の効率を10倍に向上させる」とされており、Layer 1およびDeFiアプリケーションはすでに主要企業との提携によりAI支援の開発プラットフォームを導入しています。Cub3.aiやTest Machineなどの企業では、スマートコントラクトの監査やリアルタイムの脅威監視に向けたAI統合を開発し、オンチェーンセキュリティを強化しています。LLMチャットボットは、オンチェーンデータ、プロトコルの文書、およびアプリケーションを学習し、ユーザーに拡張されたアクセシビリティとユーザーエクスペリエンスを提供するように訓練されています。

暗号通貨の基盤技術を本当に活用するより高度な統合に対する課題は、オンチェーンでのAIソリューションの実装が技術的にも経済的にも実現可能であることを証明することです。分散コンピューティング、zkML、AIエージェントの開発は、暗号通貨とAIの深くつながった未来のための基盤を築く有望な垂直を示しています。

免責事項:

  1. この記事はから転載されていますtechflowすべての著作権は元の著者に帰属します[ルーカス・チェヤン]. If there are objections to this reprint, please contact the Gate Learn(ゲート・ラーン)チームはそれを迅速に処理します。
  2. 責任の免除: この記事で表現されている意見は、著者個人のものであり、投資アドバイスを構成するものではありません。
  3. 他の言語への記事の翻訳は、Gate Learnチームによって行われます。特に記載されていない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。

Galaxy Digital: 暗号資産と人工知能の交差点を探る

中級2/28/2024, 4:55:33 AM
この記事では、暗号通貨と人工知能の交差点を探求し、公共のブロックチェーンの台頭をコンピューターサイエンスの歴史の中で最も重大な進歩の一つとして強調しています。AIの発展がすでに私たちの世界に大きな影響を与えていることについても論じています。

はじめに

公開ブロックチェーンの出現は、コンピュータサイエンスの歴史における重大な進歩を示し、一方で人工知能の開発は私たちの世界に大きな影響を与えています。ブロックチェーン技術は取引決済、データ保管、システム設計の新しいテンプレートを提供し、一方人工知能はコンピューティング、分析、コンテンツ配信に革命をもたらします。これらの産業のイノベーションは、両セクターの採用を加速させる可能性のある新しいユースケースを解き放っています。このレポートは、暗号資産と人工知能の統合を調査し、両者の間のギャップを埋め、それぞれの強みを活用しようとする新しいユースケースに焦点を当てています。具体的には、分散コンピューティングプロトコル、ゼロ知識機械学習(zkML)インフラストラクチャ、AIエージェントの開発プロジェクトを調査しています。

暗号資産は、AIに対する許可なし、信頼なし、および合成可能な決済レイヤーを提供し、分散コンピューティングシステムを介したハードウェアへの容易なアクセス、価値交換を必要とする複雑なタスクを実行できるAIエージェントの構築、およびSybil攻撃やディープフェイクに対抗するためのアイデンティティと起源ソリューションの開発などのユースケースの利用を解き放つ。AIは、ChatGPTやCopilotなどの大規模言語モデルを通じた強化されたユーザーや開発者の体験、およびスマートコントラクトの機能と自動化の可能性の大幅な向上など、Web 2.0で見られる多くの利点を暗号資産にもたらす。ブロックチェーンはAIに必要な透明でデータ豊富な環境を提供しますが、ブロックチェーンの限られた計算能力はAIモデルの直接統合の主要な障壁です。

暗号資産とAIの交差における実験と最終的な採用は、暗号資産の最も有望なユースケースを推進する要因によって駆動されています:許可されていない信頼性のある調整レイヤーへのアクセスによるバリュートランスファーの向上を促進します。この分野のステークホルダーは、これらの技術が交差する基本的な方法を理解する必要があります。

キーポイント:

    • 近い将来(6ヶ月から1年以内)、暗号資産とAIの統合は、開発者の効率を向上させるAIアプリケーション、スマートコントラクトの監査可能性とセキュリティ、およびユーザーのアクセシビリティを主体とするものとなるでしょう。これらの統合は暗号資産に限定されるものではなく、オンチェーンの開発者やユーザーの体験を向上させます。
    • 高性能GPUが不足し続ける中、分散コンピューティング製品は採用拡大のためにAIカスタマイズGPU製品を導入しています。
    • ユーザーエクスペリエンスと規制上の障壁は、分散型コンピューティングの顧客を引き付ける障害となっています。しかし、OpenAIの最近の動向や米国での規制上の見直しは、許可なし、検閲耐性、分散型AIネットワークの価値提案を強調しています。
    • オンチェーンAI統合、特にAIモデルを利用できるスマートコントラクトは、zkMLテクノロジーおよびオフチェーン計算の検証方法の改良が必要です。包括的なツールの不足、開発者の才能、高コストは採用の障壁となっています。
    • AIエージェントは、ユーザー(またはエージェント自体)が他のサービス、エージェント、または個人と取引するためのウォレットを作成できる仮想通貨に適しています。これは従来の金融レールでは不可能な機能です。より広範な採用のためには、非暗号製品との追加統合が必要です。

条件

人工知能は、計算や機械を使用して、人間の推論や問題解決能力を模倣するものです。

ニューラルネットワークは、人工知能モデルを訓練する方法の一つです。入力を逐次アルゴリズム層を通過させ、望ましい出力が生成されるまでそれらを洗練します。ニューラルネットワークは、出力を変更するために調整できる重みを持つ方程式から構成されています。正確な出力を確保するためには、トレーニングには豊富なデータと計算が必要な場合があります。これはAIモデルを開発する最も一般的な方法の一つです(例:ChatGPTはTransformersに基づくニューラルネットワーク処理に依存しています)。

トレーニングは、ニューラルネットワークや他のAIモデルを開発するプロセスです。正確な出力を生成するためにモデルを正しく解釈するために大量のデータが必要です。トレーニング中、モデルの式の重みが満足のいく出力が生成されるまで継続的に修正されます。トレーニングには非常に高いコストがかかることがあります。たとえば、ChatGPTは自社のGPUを何万台も使用してデータを処理しています。リソースの少ないチームは、しばしばAmazon Web Services、Azure、Google Cloudなどの専門のコンピューティングプロバイダに頼ることがあります。

推論とは、AIモデルを実際に使用して出力や結果を得ることです(例えば、暗号資産とAIの交差点に関する論文のアウトラインを作成するためにChatGPTを使用すること)。推論はトレーニングプロセス全体および最終製品で使用されます。トレーニングが完了した後でも、その運用コストは高くなる場合がありますが、計算コストが高くなることはありません。

ゼロ知識証明(ZKP)は、基礎となる情報を明らかにせずに声明を検証することができます。これは、暗号通貨において2つの主要な理由で役立ちます:1)プライバシー、2)スケーリング。プライバシーに関しては、ユーザーが機密情報(例:ウォレット内にいくらのETHがあるか)を明らかにせずに取引することを可能にします。スケーリングに関しては、オフチェーンの計算をオンチェーンで再実行するよりも迅速に証明することができます。これにより、ブロックチェーンやアプリケーションが、オフチェーンで安価に計算を実行し、その後にオンチェーンでそれらを検証することができるようになります。ゼロ知識とEthereum仮想マシンにおける役割についての詳細は、Christine KimによるzkEVMs:Ethereumスケーラビリティの未来に関するレポートをご覧ください。

AI/暗号資産マーケットマップ

人工知能と暗号資産を統合するプロジェクトは、まだ大規模なオンチェーンの人工知能インタラクションをサポートするために必要な基盤を構築しています。

分散コンピューティング市場は、主にグラフィック処理ユニット(GPU)の形で提供される膨大な物理ハードウェアを提供するために浮上しています。これらの両面市場は、コンピューティングを貸し出す人々と貸し出しを求める人々をつなぎ、価値の転送と計算の検証を容易にします。分散コンピューティングでは、いくつかの追加機能を提供するサブカテゴリが浮上しています。双方向市場に加えて、このレポートでは検証可能なトレーニングと出力の微調整を提供する機械学習トレーニングプロバイダや、AIを可能にするために計算とモデル生成をリンクさせるプロジェクト(通常はインテリジェントインセンティブネットワークと呼ばれる)も紹介しています。

zkMLは、経済的に実現可能でタイムリーな方法でチェーン上で検証可能なモデル出力を提供することを目指すプロジェクトの新興の焦点分野です。これらのプロジェクトは、主にアプリケーションが重い計算リクエストをオフチェーンで処理し、その後、検証可能な出力をチェーン上に投稿することを可能にし、オフチェーンの作業量が完了し正確であることを証明します。zkMLは現在、高価で時間がかかりますが、解決策としての利用が増えています。これは、zkMLプロバイダーとDeFi / ゲームアプリケーションとの統合の数が増えており、AIモデルを活用したいと考えています。

計算の十分な供給とオンチェーン計算を検証する能力は、オンチェーンAIエージェントへの扉を開きます。エージェントは、ユーザーに代わって要求を実行できるトレーニング済みのモデルです。エージェントは、オンチェーン体験を大幅に向上させる機会を提供し、ユーザーがチャットボットと会話するだけで複雑なトランザクションを実行できるようにします。ただし、現在のところ、エージェント プロジェクトは、簡単かつ迅速に展開するためのインフラストラクチャとツールの開発に重点を置いています。

分散コンピューティング

概要

人工知能はモデルのトレーニングと推論を行うために広範な計算を必要とします。過去10年間、モデルがますます複雑になるにつれ、計算の需要は爆発的に増加しています。たとえば、OpenAIは、2012年から2018年までの間、自社のモデルの計算需要が2年ごとに倍増し、その後は3か月半ごとに倍増するようになったと観察しています。これにより、GPUへの需要が急増し、一部の暗号資産マイナーは自社のGPUをクラウドコンピューティングサービス提供に再利用しています。計算へのアクセス競争が激化し、コストが上昇する中、一部のプロジェクトは分散型コンピューティングソリューションを提供するために暗号技術を活用しています。これにより、競争力のある価格でオンデマンドで計算を提供し、チームが手頃な価格でモデルのトレーニングと実行を行えるようになります。場合によっては、そのトレードオフにはパフォーマンスとセキュリティが関わってくることがあります。

最先端のGPU(たとえばNvidiaが製造するもの)への需要は非常に大きいです。 9月に、TetherはドイツのビットコインマイナーNorthern Dataに出資し、報道によると1万台のH100 GPU(AIトレーニング用の最も高度なGPUの1つ)を4200万ドルで購入しました。 一流のハードウェアを入手するまでの待ち時間は、多くの場合、少なくとも6か月以上かかることがあります。 さらに悪いことに、企業はしばしば利用しないかもしれない計算量を確保するために長期契約に署名する必要があります。 これにより、計算リソースは利用可能ですが市場でアクセスできない状況が生じる可能性があります。 分散コンピューティングシステムは、通知を受けてすぐに計算所有者が余剰容量をサブリースできる副次的市場を作成することで、これらの市場の非効率性に対処するのに役立ちます。

競争力のある価格設定とアクセシビリティを超えて、分散型コンピューティングの主要な価値提案は、検閲耐性です。最先端のAI開発は、ますます優れた計算能力とデータアクセス能力を持つ大手テック企業によって支配されるようになっています。2023年のAIインデックス年次報告書で強調された最初の重要なテーマは、学界を凌駕し、AIモデルの開発において産業が主導権を握り、数人のテックリーダーの手に集中させていることでした。これは、これらのテック企業が規制を推進し、制御できないAI開発を制限するために活動した後、AIモデルの基盤となる規範や価値を確立する上で重要な影響力を持つ可能性について懸念が高まっています。

分散コンピューティングの垂直

最近数年間には、それぞれが独自の焦点とトレードオフを持ついくつかの分散コンピューティングモデルが現れています。

一般化されたコンピューティング

広く言えば、Akash、io.net、iExec、およびCudosなどのプロジェクトは、分散コンピューティングの応用であり、データや一般的な計算ソリューションを超えて、AIトレーニングや推論のための専門計算へのアクセスを提供しています。 Akashは、Cosmos SDKを使用しているステークネットワークのためのプルーフオブステークネットワークとして唯一の完全なオープンソースの「スーパークラウド」プラットフォームとして際立っています。 AkashのネイティブトークンであるAKTは、ネットワークを保護し、参加を促進するための支払い手段として機能します。 2020年にローンチされたAkashのメインネットは、最初は許可されていないクラウドコンピューティングマーケットプレイスに焦点を当て、ストレージとCPUのリースサービスを提供していました。 2023年6月、AkashはGPU中心のテストネットを導入し、9月にGPUメインネットのローンチを行い、AIトレーニングと推論のGPUレンタルを可能にしました。

Akashエコシステムは、コンピューティングリソースを求めるテナントと、コンピュートサプライヤーであるプロバイダーという2つの主要な参加者で構成されています。リバースオークションプロセスによって、テナントとプロバイダーのマッチングが行われ、テナントは好みのサーバーの場所やハードウェアタイプ、予算などを含むコンピュート要件を投稿します。その後、プロバイダーは最低入札者がそのタスクを受け取るように入札します。バリデータはネットワークの整合性を維持し、現在のバリデータの数は100人までで、将来的に増加する予定です。バリデータとしての参加は、現在の最低ステークバリデータよりも多くのAKTをステークすることができる人に開かれています。AKT保有者は自分のトークンをバリデータに委任することができ、取引手数料とブロック報酬はAKTで配布されます。さらに、各リースに対して、コミュニティによって決定された「テイクレート」がAkashネットワークにもたらされ、AKT保有者に分配されます。

二次市場

分散型コンピューティングの二次市場は、既存の計算市場における効率の悪さに対処しようとしており、供給制約が企業が必要以上にリソースを蓄積し、クラウドプロバイダーとの長期契約がさらに供給を制限している状況を解消しようとしています。分散型コンピューティングプラットフォームは新しい供給を開放し、計算ニーズを持つ誰もがプロバイダーになれるようにします。

GPUのAIトレーニング用の需要の急増が、Akashのネットワーク利用の持続的な変化につながるかどうかはまだわかりません。歴史的に、Akashは、中央集権的な選択肢と比較してCPUベースのマーケットサービスを70-80%割引で提供してきましたが、この価格戦略は採用を大幅に促進していません。アクティブリースによって測定されたネットワークアクティビティは、2023年第2四半期において、平均33%の計算、16%のメモリ、13%のストレージ利用率で停滞し、オンチェーンの採用にとっては印象的ですが、需要が供給を依然上回っていることを示しています。GPUネットワークのローンチから半年が経過したが、長期的な採用の明確な評価にはまだ早すぎます。ただし、初期の兆候は、A100などの高品質GPUへの需要に主によって、44%の平均GPU利用率を示しており、そのうち90%以上が貸し出されています。

Akashの日々の支出は、GPUの導入以来ほぼ倍増しており、これは他のサービスの利用が増加したことに一部帰因していますが、主に新しいGPUの使用が原因です。

価格は、Lambda CloudやVast.aiなどの中央集権的な対応策と競争力があり、場合によってはそれらよりも高価です。H100やA100などの最高水準のGPUに対する高い需要は、そのような機器の所有者のほとんどが、競争力のある価格設定の市場にそれらをリストすることに興味がないことを意味します。

初期の利益にもかかわらず、採用の障壁は依然として残っています。分散型コンピューティングネットワークは、需要と供給を生成するためにさらなる手順を踏まなければならず、チームは新規ユーザーをどのように引き付けるかを探求しています。例えば、2024年初頭にAkashは、GPUプロバイダー向けにAKTの発行量を増やす提案240を可決し、特にハイエンドGPU向けに供給を増やすためにインセンティブを設けました。チームはまた、潜在的なユーザーに自らのネットワークのライブ機能をデモンストレーションするための概念実証モデルに取り組んでいます。Akashは基本モデルのトレーニングを行っており、Akash GPUを利用したチャットボットや画像生成製品を立ち上げています。同様に、io.netは安定した拡散モデルを開発し、ネットワークパフォーマンスとスケーラビリティをより良く模倣するための新しいネットワーク機能を立ち上げています。

分散機械学習トレーニング

人工知能の要求を満たすことができる一般的なコンピューティングプラットフォームに加えて、機械学習モデルのトレーニングに焦点を当てた一群の専門的なAI GPUサプライヤーも台頭しています。たとえば、Gensynは「力とハードウェアを調整して集合知を構築する」ことをモットーとしており、「誰かが何かをトレーニングしたいと思い、誰かがそれをトレーニングする意思があるなら、そのトレーニングが許可されるべきだ」という考え方を持っています。

このプロトコルには、提出者、ソルバー、検証者、および内部告発者という4つの主要な参加者が関与しています。 提出者は、ネットワークにトレーニングリクエストを含むタスクを提出します。 これらのタスクには、トレーニング目標、トレーニングすべきモデル、およびトレーニングデータが含まれます。 提出プロセスの一環として、提出者は、ソルバーによって必要とされる推定計算コストを前払いする必要があります。

提出後、実際にモデルトレーニングを行うソルバーにタスクが割り当てられます。その後、ソルバーは完了したタスクを検証者に提出し、トレーニングが正しく完了したことを確認するための責任を負います。告発者は検証者が正直に行動することを確認するために担当されています。ネットワークへの告発者の参加を促すために、Gensynは定期的に意図的に誤った証拠を提供し、それらを見破った告発者に報酬を提供する予定です。

AI関連の作業のための計算を提供するだけでなく、Gensynの主要な付加価値提案は、まだ開発中の検証システムです。検証は、GPUプロバイダーによる外部計算が正しく実行されることを確認するために必要です(つまり、ユーザーのモデルが望む方法でトレーニングされることを保証するため)。Gensynは、新しい検証手法である「確率的学習証明、グラフベースの精密プロトコル、Truebitスタイルのインセンティブゲーム」という画期的なアプローチでこの問題に対処しています。これは、バリデータがモデルを完全に再実行する必要がなく、高コストで非効率なプロセスであるモデルを正しく実行したソルバーを確認するための楽観的な解決モデルです。

革新的な検証方法に加えて、Gensynは、中央集権的な代替品や仮想通貨の競合他社と比較して、費用対効果に優れていると主張しています。AWSよりも最大80%安いMLトレーニング価格を提供し、Truebitなどの類似プロジェクトをテストで凌駕しています。

これらの初期結果が分散型ネットワークで大規模に再現されるかどうかはまだ見ていく必要があります。Gensynは、小規模なデータセンターや小売ユーザー、そして最終的にはスマートフォンのような小さなモバイルデバイスといったプロバイダーの余剰の計算能力を利用することを望んでいます。ただし、Gensynチーム自体が認めているように、異種のコンピューティングプロバイダーに依存することは新たな課題をもたらすことになります。

Google CloudやCoreweaveのような中央集権型のプロバイダーでは、コンピューティングコストが高額ですが、計算間の通信(帯域幅とレイテンシ)は安価です。これらのシステムはハードウェア間の通信をできるだけ迅速に行うように設計されています。Gensynは、世界中の誰もがGPUを提供できるようにすることで計算コストを削減しますが、同時にネットワークは遠隔の異種ハードウェア間で計算ジョブを調整する必要があり、通信コストが増加します。Gensynはまだ立ち上がっていませんが、これは分散型の機械学習トレーニングプロトコルの構築時に達成可能なコンセプトの証明です。

分散型総合インテリジェンス

分散コンピューティングプラットフォームは、人工知能の創造方法を設計する可能性も提供します。Bittensorは、Substrate上に構築された分散コンピューティングプロトコルであり、人工知能をどのように協力的な方法に変換するかという問いに取り組んでいます。Bittensorは、AI生成の分散化と商品化を実現することを目指しています。2021年にローンチされ、協力的な機械学習モデルの力を活用して、継続的に改善されたAIを生み出すことを目指しています。

Bittensorは、ネイティブ通貨であるTAOが2100万に供給限界を持ち、4年ごとに半減サイクルを持つビットコインからインスピレーションを得ています(最初の半減は2025年に設定されています)。正しい乱数を生成しブロック報酬を獲得するためにProof of Workを利用するのではなく、Bittensorはマイナーに対して「Proof of Intelligence」を要求し、モデルを実行して推論リクエストに応じて出力を生成することに依存しています。

インセンティブを与えるインテリジェンス

最初、Bittensorは専門家のミックス(MoE)モデルを使用して出力を生成していました。推論リクエストが送信されると、MoEモデルは一般化されたモデルに依存せず、与えられた入力タイプに最も正確なモデルにリクエストを転送します。家を建てることを想像してみてください。様々な専門家を雇って建設プロセスのさまざまな側面(例:建築家、エンジニア、塗装工、建設労働者など)を担当させます。MoEは、これを機械学習モデルに適用し、入力に基づいて異なるモデルの出力を活用しようとします。Bittensorの創設者アラ・シャーバナによる説明では、これは「1人に話すのではなく、賢い人たちの部屋に話して最良の答えを得る」ようなものです。正しいルーティング、正しいモデルへのメッセージ同期、インセンティブの確保に関する課題があるため、この方法はプロジェクトのさらなる開発が行われるまで保留されています。

Bittensorネットワークには、バリデータとマイナーの2つの主要な参加者がいます。バリデータはマイナーに推論リクエストを送信し、出力をレビューし、その品質に基づいてランク付けします。ランキングが信頼性があることを保証するために、バリデータには他のバリデータとのランキングがどれだけ一貫しているかに基づいた「vtrust」スコアが与えられます。バリデータのvtrustスコアが高いほど、より多くのTAOエミッションを受け取ります。これは、バリデータが時間の経過とともにモデルのランキングについて合意に達するように動機づけるためであり、より多くのバリデータがランキングに同意すればするほど、個々のvtrustスコアが高くなります。

マイナーはサーバーとも呼ばれ、実際の機械学習モデルを実行するネットワーク参加者です。バリデーターは、バリデータのクエリに対して最も正確なアウトプットを提供するために競い合い、アウトプットが正確であればあるほど、より多くのTAO排出量を得ることができます。マイナーは、これらの出力を自由に生成できます。例えば、将来的には、BittensorのマイナーがGensynで事前にモデルをトレーニングし、それを使ってTAOの排出量を稼ぐことは十分に可能です。

今日、ほとんどのインタラクションは、バリデータとマイナーの間で直接行われます。バリデータは入力をマイナーに提出し、アウトプット(つまり、モデルトレーニング)をリクエストします。バリデータはネットワーク上でマイナーにクエリを送信し、その応答を受け取った後、マイナーをランク付けしてそのランキングをネットワークに提出します。

PoSに依存する検証者とPoWの一形態であるモデルプルーフに依存するマイナーとの相互作用は、ユマ合意として知られています。これは、マイナーが最高のアウトプットを生産し、TAOエミッションを獲得するためにインセンティブを与え、検証者がマイナーのアウトプットを正確にランク付けし、より高いvtrustスコアを獲得し、TAO報酬を増やすことを目指しており、それによりネットワークの合意メカニズムが形成されます。

サブネットとアプリケーション

Bittensorでのインタラクションには、主にバリデーターがマイナーにリクエストを送信し、その出力を評価することが含まれます。しかし、貢献するマイナーの質が向上し、ネットワークの全体的なインテリジェンスが高まるにつれて、Bittensor は既存のスタックの上にアプリケーション層を作成し、開発者が Bittensor ネットワークにクエリを実行するアプリケーションを構築できるようにしています。

2023年10月、Bittensorは革命アップグレードを通じてサブネットを導入し、この目標達成に向けて重要な一歩を踏み出しました。サブネットとは、特定の振る舞いをインセンティブ化するBittensor上の独立したネットワークです。革命により、誰もがサブネットを作成することに興味を持つことができるようになりました。立ち上げから数か月で、テキストプロンプト、データスクレイピング、画像生成、およびストレージ用のサブネットを含む32以上のサブネットが立ち上げられました。サブネットが成熟し製品レベルに達すると、サブネット作成者はアプリケーション統合も作成し、チームが特定のサブネットをクエリするアプリケーションを構築できるようになります。チャットボット、画像生成ツール、Twitter返信ボット、予測市場などの一部のアプリケーションは存在しますが、Bittensor財団からの資金提供以外に、これらのクエリを受け入れて転送するための公式なインセンティブはありません。

より明確な説明のために、以下に、アプリケーションがネットワークに統合された場合のBittensorの動作例が示されています。

サブネットは、ルートネットワークによって評価されたパフォーマンスに基づいてTAOを獲得します。サブネットのすべての上に位置するルートネットワークは、基本的に特別なサブネットとして機能し、ステークによって管理されます。ルートネットワークのバリデータは、サブネットのパフォーマンスに基づいてサブネットをランク付けし、定期的にTAOのエミッションをサブネットに割り当てます。このように、個々のサブネットはルートネットワークのためのマイナーとして機能します。

Bittensorのビジョン

Bittensorは、プロトコルの機能を拡張して複数のサブネットで知能生成を奨励するために、成長の痛みを依然として経験しています。マイナーは、自分たちのモデルによって実行された高く評価された推論の出力をわずかに変更し、複数のバリアントを提出するなど、より多くのTAOリワードを得るためにネットワークを攻撃する新しい方法を絶えず考案しています。ネットワーク全体に影響を与えるガバナンス提案は、Opentensor Foundationのステークホルダーで構成されたTriumvirateによってのみ提出および実施されます(特に、提案は実施前にBittensorバリデーターで構成されるBittensor Senateの承認が必要です)。プロジェクトのトークノミクスは、TAOのクロスサブネット利用のインセンティブを強化するために変更されています。このプロジェクトは、そのユニークなアプローチで急速に注目を集め、最も人気のあるAIウェブサイトのCEOであるHuggingFaceのCEOは、Bittensorがそのリソースをサイトに追加すべきだと述べています。

最近、コア開発者によって公開された「Bittensor Paradigm」という記事では、チームがBittensorの「何が計測されるかに無関心になる」というビジョンを概説しています。理論的には、これにより、BittensorがTAOによってサポートされる任意の種類の行動をインセンティブ化するサブネットを開発することが可能となります。しかし、これらのネットワークがそのように多様なプロセスを処理するために拡張できることや、潜在的なインセンティブが中央集権化された製品を超えた進歩をもたらすことを証明するという実用上の制限がまだかなりあります。

人工知能モデルのための分散コンピューティングスタックの構築

上記のセクションでは、現在開発中のさまざまなタイプの分散型人工知能(AI)コンピューティングプロトコルについての詳細な概要が提供されています。開発および採用の初期段階では、それらは、DeFiの「お金のレゴ」コンセプトに類似した、「AIビルディングブロック」の作成を促進する生態系の基盤を築いています。許可されていないブロックチェーンの組み合わせ可能性により、各プロトコルが別のプロトコルの上に構築される可能性があり、より包括的な分散型AIエコシステムが作成されます。
例えば、これはAkash、Gensyn、およびBittensorが推論リクエストに応答するためにどのように相互作用するかを示しています。

これは、将来起こり得ることの一例に過ぎず、現在のエコシステム、既存のパートナーシップ、または潜在的な結果を表すものではないことを理解することが重要です。相互運用性の制限と以下に説明するその他の考慮事項により、今日の統合の可能性は大幅に制限されます。さらに、流動性の断片化と複数のトークンを使用する必要性は、ユーザーエクスペリエンスを損なう可能性があると、AkashとBittensorの創設者は指摘しています。

その他の分散型製品

コンピューティング以外にも、暗号通貨空間における新たなAIエコシステムをサポートするために、いくつかの分散型インフラストラクチャサービスが導入されています。これらすべてをリストアップすることは、このレポートの範囲を超えていますが、いくつかの興味深く実例があります。

  • Ocean: ユーザーがデータトークンを使用してデータを表すデータNFTを作成し、購入できる分散型データマーケットプレイス。ユーザーは自分のデータを収益化し、それに対するより大きな主権を持つことができ、同時にAIチームにモデルの開発とトレーニングに必要なデータへのアクセスを提供することができます。
  • Grass:ユーザーが余剰帯域幅をAI企業に売却し、それを利用してインターネットからデータを収集することができる分散型帯域幅マーケットプレイス。Wyndネットワーク上に構築されており、これにより個人は自分の帯域幅を収益化することができ、帯域幅の購入者には個々のユーザーがオンラインで見るものについてより多様な視点を提供します(個々のインターネットアクセスはしばしばIPアドレスに基づいてカスタマイズされているため)。
  • HiveMapper:日常の運転手から収集された情報を組み込んだ分散型マップ製品を構築します。HiveMapperは、ユーザーのダッシュボードカメラから収集された画像を解釈するためにAIに依存し、強化人間学習フィードバック(RHLF)を通じてAIモデルを微調整するのを手伝ってユーザーにトークンを recompenses。

これらの例は、ほぼ無限の可能性を示しており、AIモデルをサポートする分散型マーケットモデルやそれらを開発するために必要な周辺インフラを探求する機会がほとんど制限されていないことを示しています。現在、これらのプロジェクトのほとんどは概念実証段階にあり、包括的なAIサービスを提供するために必要なスケールで運用できることを証明するためにさらなる研究と開発が必要です。

見通し

分散型コンピューティング製品はまだ開発初期段階にあります。彼らはまさに最先端のコンピューティング機能を導入し始め、製品で最も強力な人工知能モデルを訓練することが可能です。有意義な市場シェアを獲得するためには、集中型の代替手段に対して実際の利点を実証する必要があります。より広範な採用のための潜在的な誘因には、

  • GPU の需要と供給。GPUの不足とコンピューティング需要の急激な増加が相まって、GPUの軍拡競争が進んでいます。GPUの制限により、OpenAIはプラットフォームへのアクセスが制限されている場合があります。Akash や Gensyn などのプラットフォームは、ハイパフォーマンス コンピューティングを必要とするチームに、コスト競争力のある代替手段を提供できます。今後6〜12か月は、分散型コンピューティングプロバイダーにとって、より広範な市場アクセスの欠如のために分散型製品を検討せざるを得ない新しいユーザーを引き付ける特にユニークな機会を提供します。さらに、MetaのLLaMA2などのオープンソースモデルのパフォーマンスがますます向上しているため、ユーザーは効果的な微調整されたモデルを展開する際に同じ障壁に直面することがなくなり、コンピューティングリソースが主なボトルネックになっています。しかし、プラットフォームが存在するだけでは、十分なコンピューティングの供給とそれに対応する消費者の需要は保証されません。ハイエンドGPUの調達は依然として困難であり、コストは必ずしも需要の主な動機ではありません。これらのプラットフォームは、分散型コンピューティングオプション(コスト、検閲耐性、稼働時間と回復力、アクセス性など)を使用してスティッキーユーザーを蓄積することの実際の利点を実証する上で課題に直面します。GPU インフラストラクチャへの投資と建設が驚異的なペースで進んでいるため、迅速に行動する必要があります。
  • 規制。規制は、分散型コンピューティングの動きに対する障壁であり続けています。短期的には、明確な規制がないため、プロバイダーとユーザーの両方がこれらのサービスを使用する際に潜在的なリスクに直面することになります。プロバイダーが計算を提供したり、購入者が無意識のうちに制裁対象のエンティティから計算を購入したりした場合はどうなりますか?ユーザーは、中央集権的な制御と監視を欠いた分散型プラットフォームを使用することを躊躇するかもしれません。プロトコルは、プラットフォームに制御を組み込んだり、既知のコンピューティングプロバイダー(つまり、Know Your Customer(KYC)情報を提供したプロバイダー)にのみアクセスするフィルターを追加したりすることで、これらの懸念を軽減しようとしますが、コンプライアンスを確保しながらプライバシーを保護するには、より堅牢なアプローチが必要です。短期的には、これらの問題に対処するためにプロトコルへのアクセスを制限するKYCおよびコンプライアンスプラットフォームが出現する可能性があります。さらに、米国における新たな規制の枠組みの可能性をめぐる議論(人工知能の安全、信頼性、信頼できる開発と利用の促進に関する大統領令の発令に代表される)は、GPUアクセスをさらに制限する規制措置の可能性を浮き彫りにしています。
  • 検閲。規制は両刃の剣であり、分散型コンピューティング製品はAIへのアクセスを制限する行動から利益を得ることができる。行政命令を超えて、OpenAIの創設者であるSam Altmanは議会で証言し、規制当局はAI開発のためのライセンスを発行すべきだと述べた。AI規制に関する議論は始まったばかりだが、アクセスを制限したりAIの能力を検閲する試みは、そのような障壁に直面しない分散型プラットフォームの採用を加速させる可能性がある。また、11月のOpenAIのリーダーシップ変更(または変更のなさ)は、最も強力な既存のAIモデルの意思決定権をわずかな人々に委託することは危険であることをさらに示している。さらに、すべてのAIモデルは意図的であろうとなかろうと、それを作成した者の偏見を必ず反映している。これらの偏見を排除する1つの方法は、モデルをできるだけオープンにして微調整やトレーニングを行い、どこでも誰もがさまざまな偏見を持つモデルにアクセスできるようにすることだ。
  • データプライバシー。分散コンピューティングは、ユーザーにデータ主権を提供する外部データおよびプライバシーソリューションと統合された際に、中央集権的な代替手段よりも魅力的になる可能性があります。サムスンは、エンジニアがチップ設計にChatGPTを使用し、機密情報をChatGPTに漏洩していることに気づいた際、被害者となりました。Phala NetworkとiExecは、ユーザーデータを保護するためにSGXセキュアエンクレーブを提供し、進行中の完全ホモモーフィック暗号化の研究により、プライバシーが保証された分散コンピューティングがさらに可能になるかもしれません。人工知能がさらに私たちの生活に統合されるにつれ、ユーザーはプライバシー保護されたアプリケーションでモデルを実行できる能力をますます重視するでしょう。ユーザーはまた、データコンポジションサービスのサポートが必要です。これにより、モデル間でデータをシームレスに移行できます。
  • ユーザーエクスペリエンス(UX)。ユーザーエクスペリエンスは、あらゆる種類の暗号資産アプリケーションやインフラの普及を広げる上で重要な障壁のままです。これは分散コンピューティング製品においても同様であり、開発者が暗号通貨と人工知能の両方を理解する必要があるため、いくつかのケースでは悪化しています。改善は、ブロックチェーンとのやり取りを結合し、抽出するなど、基本から始める必要があります。そうすることで、現在の市場リーダーと同じような高品質の出力を提供できます。多くの操作可能な分散コンピューティングプロトコルが安価な製品を提供しているにもかかわらず、定期的に利用されることに苦労している難しさが明白です。

スマートコントラクトとzkML

スマートコントラクトは、どんなブロックチェーンエコシステムにおいても基盤となります。特定の条件の下で自動的に実行され、信頼できる第三者の必要性を軽減または排除することで、DeFiなどの複雑な分散型アプリケーションの作成を可能にします。ただし、スマートコントラクトの機能は、更新する必要がある事前に設定されたパラメータに基づいて動作するため、まだ限られています。

例えば、貸借プロトコル用に展開されたスマートコントラクトは、特定の貸借価値比率に基づいてポジションがいつ清算されるべきかに関する仕様が含まれています。静的な環境では有用ですが、これらのスマートコントラクトは、リスク許容度の変化に適応するために常に更新が必要であり、中央集権的なプロセスを介して管理されていない契約には課題があります。たとえば、分散型ガバナンスプロセスに依存するDAOは、システムリスクに対して十分に迅速に反応することができないかもしれません。

スマートコントラクトに人工知能(つまり、機械学習モデル)を統合することは、機能性、セキュリティ、効率を向上させる潜在的な方法であり、全体的なユーザーエクスペリエンスを向上させることができます。しかし、これらの統合は追加のリスクをもたらす可能性もあります。これらのスマートコントラクトの基盤となるモデルが悪用されたり、ロングテールの状況を解釈できなかったりする可能性があるためです(データ入力が不足しているため、ロングテールの状況をモデルがトレーニングするのは困難です)。

ゼロ知識機械学習(zkML)

機械学習は複雑なモデルを実行するためにかなりの計算が必要であり、高コストのためにスマートコントラクトで直接AIモデルを実行することは実用的ではありません。例えば、イールド最適化モデルを提供するDeFiプロトコルは、これらのモデルをオンチェーンで実行することが困難であり、過大なガス料金が発生してしまいます。1つの解決策は、基礎となるブロックチェーンの計算能力を向上させることです。しかしながら、これはチェーンの検証者の要件を高め、分散化を損なう可能性があります。代わりに、いくつかのプロジェクトは、zkMLの使用を探っており、オンチェーンの計算を必要とせずに、信頼できる方法で出力を検証することを目指しています。

zkMLの有用性を示す一般的な例として、他のユーザーがデータをモデルに入力し、対応するモデルが正しく実行されたことを検証する必要がある場合が挙げられます。分散型コンピューティングプロバイダーを利用してモデルをトレーニングする開発者は、これらのプロバイダーが安価なモデルを使用し、ほとんど気づかれない差異を持つ出力を生成することでコストを削減することを心配するかもしれません。zkMLを使用することで、コンピューティングプロバイダーはデータをモデルに入力し、その後、チェーン上で検証可能な証明を生成することができ、特定の入力に対するモデルの出力が正しいことを証明します。このシナリオでは、モデルプロバイダーは、出力を生成した基盤となる重みを公開せずに、モデルを提供するという追加の利点を得ます。

逆も可能です。ユーザーがデータ上でモデルを実行したいが、プライバシー上の懸念からモデルプロジェクトにデータへのアクセスを提供したくない場合(例:医療検査や独自の業務情報など)、データを共有せずにモデルを実行し、その後、正しいモデルを実行したことを証明することができます。これらの可能性は、AIとスマートコントラクト機能を統合するための設計空間を大幅に拡大し、難しい計算上の制約に対処します。

インフラストラクチャとツール

zkML分野の初期段階を考慮すると、開発は主に、チームがモデルや出力物をチェーン上で検証可能な証明に変換するために必要とするインフラストラクチャやツールの構築に焦点を当てています。これらの製品は、可能な限りゼロ知識の側面を抽象化しています。

EZKL と Giza は、機械学習モデルの実行の検証可能な証明を提供することで、そのようなツールを構築する 2 つのプロジェクトです。どちらも、チームが機械学習モデルを構築し、これらのモデルが信頼できる方法でオンチェーンで結果を検証できるように実行できるようにするのに役立ちます。どちらのプロジェクトも、Open Neural Network Exchange(ONNX)を使用して、TensorFlowやPytorchなどの一般的な言語で記述された機械学習モデルを標準形式に変換します。次に、実行時にzkプルーフも生成するこれらのモデルのバージョンを出力します。EZKLはオープンソースでzk-SNARKを生成し、Gizaはクローズドソースでzk-STARKを生成します。現在、どちらのプロジェクトも EVM とのみ互換性があります。

ここ数ヶ月で、EZKLはzkMLソリューションの強化において大きな進歩を遂げ、主にコスト削減、セキュリティの向上、プルーフ生成の高速化に重点を置きました。例えば、2023年11月、EZKLは新しいオープンソースのGPUライブラリを統合し、アグリゲーションプルーフタイムを35%短縮しました。1月、EZKLは、EZKLプルーフを使用する際に、ハイパフォーマンスコンピューティングクラスタを統合し、コンカレントジョブシステムを調整するためのソフトウェアソリューションであるLilithをリリースしました。Gizaの独自性は、検証可能な機械学習モデルを作成するためのツールを提供し、Hugging Faceに相当するWeb3の実装を計画し、zkMLコラボレーションとモデル共有のためのユーザーマーケットプレイスを開き、最終的には分散型コンピューティング製品を統合することにあります。1月、EZKLは、EZKL、Giza、RiscZero(後述)のパフォーマンスを比較したベンチマーク評価を発表し、プルーフタイムとメモリ使用量の高速化を示しました。

Modulus Labsは現在、AIモデルに特化した新しいゼロ知識(zk)証明技術を開発しています。Modulusは「Intelligent Cost」というタイトルの論文を発表し、AIモデルをオンチェーンで実行すると法外に高いコストが発生することを示唆しています。2023年1月に発表されたこの論文では、既存のzkプルーフシステムをベンチマークし、zkプルーフの機能の改善とAIモデル内のボトルネックを特定しています。その結果、現在の製品は、大規模なAIアプリケーションには高価で非効率的であることが明らかになりました。Modulusは、最初の研究に基づいて、AIモデルのコストと証明時間を削減し、スマートコントラクトへの大規模な統合のためにプロジェクトを経済的に実行可能にすることを目的とした、特殊なzk証明者であるRemainderを11月に発売しました。彼らの研究はプロプライエタリであり、言及されたソリューションに対してベンチマークを行うことは不可能ですが、最近、暗号化と人工知能に関するVitalikのブログ投稿で引用されました。

zkML領域の将来的な成長には、ツールやインフラの開発が不可欠です。これにより、検証可能なオフチェーン計算の展開における摩擦やzkチームの必要性が大幅に低減されます。暗号ネイティブでない機械学習の実践者向けの安全なインターフェースを作成し、彼らのモデルをオンチェーンに持ち込むことで、アプリケーションは本当に革新的なユースケースを試すことができます。さらに、これらのツールは、zkMLのより広範な採用に向けた主要な障壁である、ゼロ知識、機械学習、暗号の交差点で働くことに興味を持つ知識豊富な開発者の不足を解消します。

コプロセッサ

開発中の他のソリューションは、「コプロセッサ」として言及されており(RiscZero、Axiom、Ritualを含む)、オフチェーンの計算をチェーン上で検証するなど、さまざまな役割を果たしています。EZKL、Giza、Modulusと同様に、彼らの目標は完全にzkプルーフ生成プロセスを抽象化し、オフチェーンプログラムを実行し、チェーン上で検証可能な証拠を生成できるゼロ知識仮想マシンを作成することです。RiscZeroとAxiomは、一般的な用途のコプロセッサとして簡単なAIモデルに対応している一方、Ritualは特にAIモデルとの使用を目的として構築されています。

Ritual's first instance, Infernet, includes an Infernet SDK that allows developers to submit inference requests to the network and receive outputs and optional proofs in return. Infernet nodes process these off-chain computations before returning outputs. For example, a DAO could establish a process ensuring all new governance proposals meet certain prerequisites before submission. Each time a new proposal is submitted, the governance contract triggers an inference request through Infernet, invoking an AI model trained specifically for DAO governance. This model reviews the proposal to ensure all necessary standards are met and returns outputs and evidence to approve or reject the proposal submission.

来年にわたり、Ritualチームは、Ritualスーパーチェーンとして知られるインフラストラクチャレイヤーを形成するためにさらなる機能を導入する予定です。議論されている多くのプロジェクトは、Ritualへのサービスプロバイダーとして統合される可能性があります。Ritualチームはすでに証明生成のためにEZKLと統合しており、近く他の主要なプロバイダーからの機能を追加するかもしれません。Ritual上のInfernetノードは、Akashやio.netのGPUを利用し、Bittensorサブネットでトレーニングされたクエリモデルを利用することもできます。彼らの究極の目標は、あらゆるネットワークとあらゆるワークロードに対して、機械学習やその他のAI関連タスクのためのオープンAIインフラストラクチャの優先プロバイダーになることです。

アプリケーション

zkMLは、元々リソースに制約のあるブロックチェーンと、膨大な計算リソースとデータリソースを要求する人工知能との間の二分法を調整するのに役立っています。 Gizaの創設者が述べるように、「ユースケースは非常に豊富です...これは、イーサリアムの初期のスマートコントラクトのユースケースを尋ねるのと少し似ています...私たちがやっていることは、スマートコントラクトのユースケースを拡大しているだけです。」ただし、現在の開発は主にツールとインフラのレベルで進行しています。アプリケーションはまだ探索段階にあり、チームはzkMLを使用したモデルの実装によって生み出される価値がその複雑さとコストを上回ることを証明するという課題に直面しています。

現在のアプリケーションには、

  • 分散型金融(DeFi)。zkMLはスマートコントラクトの機能を強化し、DeFiの設計空間をアップグレードします。DeFiプロトコルは、機械学習モデルが利回りや取引戦略の生成、リスク分析、ユーザーエクスペリエンスなどに活用するための検証可能で不変のデータを豊富に提供します。たとえば、Giza は Yearn Finance と協力して、Yearn の新しい v3 コンテナーの概念実証自動リスク評価エンジンを構築しました。Modulus Labsは、Lyra Financeと協力して機械学習をAMMに統合し、Ion Protocolと協力してバリデーターのリスクを分析するためのモデルを実装し、AIがサポートするNFT価格情報の検証でUpshotを支援しています。NOYA(EZKLを使用)やMozaicなどのプロトコルは、独自のオフチェーンモデルへのアクセスを提供し、ユーザーはオンチェーンデータの入力と証明を検証しながら、自動化された流動性マイニングにアクセスできるようにします。Spectral Financeは、CompoundまたはAaveの借り手がローンをデフォルトする可能性を予測するためのオンチェーンクレジットスコアリングエンジンを開発しています。zkMLにより、これらのいわゆる「De-Ai-Fi」製品は、今後数年間でますます人気が高まる可能性があります。
  • ゲーム。ゲームは長い間、公共のブロックチェーンを通じての破壊と向上が考えられてきました。zkMLはオンチェーンの人工知能ゲームを可能にします。Modulus Labsはシンプルなオンチェーンゲームの概念実証を実現しました。“Leela vs the World”は、ユーザーがAIチェスモデルに対抗するゲーム理論に基づいたチェスゲームで、zkMLはLeelaがゲームの実行モデルに基づいて行うすべての動きを検証します。同様に、チームはEZKLフレームワークを使用してシンプルな歌唱コンテストやオンチェーンの〇×ゲームを構築しています。CartridgeはGizaを使用して完全にオンチェーンのゲームを展開するチームに対応し、最近では障害物を避けようとする車のためのより良いモデルを作成するためにユーザーが競うシンプルなAIドライビングゲームを強調しています。これらの概念実証は単純ですが、ゲーム内経済とやり取りできる複雑なNPCアクターのようなより複雑なオンチェーン検証が可能な将来の実装を指し示しています。「AI Arena」では、プレイヤーが自分の戦士を育成してAIモデルとして展開できるSuper Smash Brothersゲームに見られるように、より複雑なNPCアクターがゲーム内経済とやり取りできる未来の実装が可能です。
  • ID、来歴、プライバシー。暗号通貨は、真正性を検証し、AIが生成/操作したコンテンツやディープフェイクの増大する問題と戦うために使用されてきました。zkMLは、これらの取り組みを前進させることができます。WorldCoinは、ユーザーが虹彩をスキャンして一意のIDを生成する必要があるID検証ソリューションです。将来的には、生体認証IDは、暗号化を使用して個人のデバイスで自己ホストされ、ローカルで実行されるモデルを使用して検証される可能性があります。その後、ユーザーは身元を明かすことなく生体認証の証拠を提供できるため、プライバシーを確保しながらシビル攻撃から防御できます。これは、モデルを使用して医療データや画像を分析して病気を検出したり、出会い系アプリでの性格の検証やマッチングアルゴリズムの開発、保険会社や融資機関が財務情報を確認する必要があるなど、プライバシーが要求される他の推論にも適用できます。

見通し

zkMLは実験段階のままであり、ほとんどのプロジェクトはインフラ基盤プリミティブや概念の証明に焦点を当てています。現在の課題には、計算コスト、メモリ制限、モデルの複雑さ、限られたツールやインフラ、開発者の才能などがあります。要するに、zkMLが消費者向け製品で必要とされる規模で実装されるにはかなりの作業が必要です。

しかしながら、この分野が成熟し、これらの制約が解消されるにつれて、zkMLは人工知能と暗号化を統合する主要な要素となるでしょう。基本的に、zkMLは、オンチェーンで実行するのと同じか類似したセキュリティ保証を保ちながら、オフチェーン計算の任意のスケールをオンチェーンにもたらすことを約束しています。しかし、このビジョンが実現する前に、技術の早期採用者は引き続き、zkMLのプライバシーとセキュリティを代替手段の効率とのバランスを取る必要があります。

人工知能エージェント

人工知能エージェント

人工知能と暗号資産の最もエキサイティングな統合の1つは、人工知能エージェントを用いた実験です。 エージェントとは、AIモデルを使用してタスクを受け取り、解釈し、実行できる自律型ロボットのことです。 これには、常に利用可能で好みに合わせて調整された個人アシスタントを持つことから、リスク志向に基づいて投資ポートフォリオを管理および調整するための金融エージェントを雇うことまで様々なことが含まれます。

暗号通貨がパーミッションレスでトラストレスな決済インフラを提供していることを考えると、エージェントと暗号通貨はうまく統合することができます。トレーニングが完了すると、エージェントはウォレットを持ち、スマートコントラクトを使用して自分で取引を行うことができるようになります。たとえば、今日のエージェントは、インターネット上の情報をスクレイピングし、モデルに基づいて予測市場で取引することができます。

エージェントプロバイダー

Morpheusは、2024年にEthereumとArbitrumで立ち上げられた最新のオープンソースエージェントプロジェクトの1つです。そのホワイトペーパーは2023年9月に匿名で公開され、Erik Vorheesなどの著名な人物を含むコミュニティ形成や構築の基盤を提供しています。ホワイトペーパーには、ユーザーのウォレットによって管理され、スマートコントラクトとやり取りできるオープンソースのLLMがダウンロードできるスマートエージェントプロトコルが含まれています。エージェントが安全にやり取りできるスマートコントラクトを決定するのにスマートコントラクトのランキングを使用し、処理されたトランザクションの数などの基準に基づいています。

また、このホワイトペーパーでは、スマートエージェントプロトコルの実行に必要なインセンティブ構造やインフラストラクチャなど、Morpheusネットワークを構築するためのフレームワークも提供します。これには、コントリビューターがエージェントと対話するためのフロントエンドを構築するためのインセンティブ、開発者が相互対話用のプラグインエージェントを構築するためのAPI、およびユーザーがエッジデバイスでエージェントを実行するために必要な計算とストレージにアクセスするためのクラウドソリューションが含まれます。プロジェクトの最初の資金調達は2月上旬に開始され、完全なプロトコルは2024年の第2四半期に開始される予定です。

分散型自律インフラストラクチャネットワーク(DAIN)は、Solana上でエージェント間エコノミーを構築する新しいエージェントインフラストラクチャプロトコルです。DAINの目標は、異なる企業のエージェントが共通のAPIを介してシームレスに相互作用できるようにすることであり、これによりAIエージェントの設計空間が大幅に拡大し、web2およびweb3製品の両方とやり取りできるエージェントに焦点を当てています。1月に、DAINはAsset Shieldとの最初のパートナーシップを発表し、ユーザーがマルチシグに「エージェント署名者」を追加し、取引を解釈し、ユーザーが設定したルールに基づいて承認/拒否する能力を持たせることができるようになりました。

Fetch.AIは、最も早く展開されたAIエージェントプロトコルの1つであり、FETトークンとFetch.AIウォレットを使用してチェーン上でエージェントを構築、展開、利用するためのエコシステムを開発しています。このプロトコルは、エージェントを使用するための包括的なツールやアプリケーションを提供しており、エージェントとの相互作用や注文に関するウォレット内機能も提供しています。

Fetchチームの元メンバーによって設立されたAutonolasは、分散型AIエージェントを作成および使用するためのオープンマーケットです。Autonolasは、開発者がPolygon、Ethereum、Gnosis Chain、Solanaなどの複数のブロックチェーンにプラグインできるオフチェーンのホスト型AIエージェントを構築するための一連のツールも提供しています。現在、予測市場やDAOガバナンスなど、アクティブなエージェントの概念実証製品がいくつかあります。

SingularityNetは、専門のAIエージェントが展開され、他のエージェントやエージェントが複雑なタスクを実行するために雇用できる分散型のAIエージェントのマーケットプレイスを構築しています。 AlteredStateMachineなどの他の企業は、AIエージェントをNFTと統合する取り組みを進めています。ユーザーはランダムな属性を持つNFTを作成し、これによってさまざまなタスクで利点と欠点が得られます。 これらのエージェントは、それらをゲーム、DeFi、または仮想アシスタントで使用するために特定の属性を強化するためにトレーニングされ、他のユーザーと取引することができます。

これらのプロジェクト全体では、協力して作業を行うだけでなく、一般的な人工知能を構築するのにも役立つエージェントの将来のエコシステムを想定しています。本当に複雑なエージェントは、任意のユーザータスクを自律的に完了する能力を持つでしょう。例えば、完全に自律的なエージェントは、他のエージェントを雇う方法を見つけ、APIを統合し、その後にタスクを実行することができるようになります。旅行予約ウェブサイトなどの外部APIと統合済みであることを確認する必要はありません。ユーザーの視点からは、エージェントがタスクを完了できるかどうかをチェックする必要はなく、エージェント自体がそれを独自に決定することができます。

BitcoinとAIエージェント

2023年7月、Lightning LabsはLightning Network上でエージェントを利用するための概念実装を発表し、LangChainによってBitcoinスイートと名付けられました。この製品は特に興味深いものであり、それはWeb 2の世界でますます深刻になっている問題に取り組むことを目指しています—Webアプリケーションのゲート付きで高価なAPIキー。

LangChainは、エージェントがBitcoinを購入、売却、保有し、APIキーをクエリしたりマイクロペイメントを送信したりできるツールセットを開発者に提供することで、この問題に対処しています。従来の支払いレールでは、手数料が高すぎるため、マイクロペイメントは困難ですが、ライトニングネットワークでは、エージェントは極めて低コストで毎日無制限のマイクロペイメントを送信できます。LangChainのL402支払いメータリングAPIフレームワークと組み合わせて使用すると、企業は利用量の増減に基づいてAPIのアクセスコストを調整でき、単一かつ高額な標準を設定するのではなく、アクセスコストを調整できます。

将来、チェーン活動は主にエージェントとエージェントの相互作用によって推進されることになり、エージェントが過大なコストなく互いにやり取りできるメカニズムが必要とされます。この初期の例は、許可なく経済的に効率的な支払いレールでエージェントを使用する可能性を示しており、新しい市場や経済的な相互作用の可能性を開くものです。

見通し

エージェントの分野はまだ初期段階にあります。プロジェクトは、単純なタスクを処理できる機能的なエージェントを立ち上げ始めたばかりで、アクセスは通常、経験豊富な開発者やユーザーに限られています。しかし、時間の経過とともに、人工知能エージェントが仮想通貨に与える最も重要な影響の1つは、すべての垂直方向でのユーザーエクスペリエンスの向上です。取引は、クリックベースからテキストベースに移行し、ユーザーは会話型インターフェースを通じてオンチェーンのエージェントとやり取りできるようになります。Dawn Walletのようなチームは既にチャットボットウォレットを立ち上げており、ユーザーがオンチェーンでやり取りできるようにしています。

また、Web 2でエージェントがどのように運用されるかは未だに不明です。なぜなら、金融レールは24時間365日稼働できない規制された銀行機関に依存しており、シームレスな国境を越えた取引を行うことができません。Lyn Aldenが強調しているように、返金の不足やマイクロ取引の処理能力は、クレジットカードと比較して特に魅力的なものとなります。しかし、もしエージェントが取引の一般的な手段となった場合、既存の支払いプロバイダーやアプリケーションは迅速に適応し、既存の金融レール上で運用するためのインフラを導入することが予想されます。その結果、暗号資産の利用による一部の利点が低下することになるでしょう。

現在、エージェントは、特定のインプットが特定のアウトプットを保証する決定論的な暗号通貨トランザクションに限定されている可能性があります。どちらのモデルも、複雑なタスクの実行方法を理解するためのこれらのエージェントの機能を概説しており、ツールは完了できるタスクの範囲を拡大していますが、どちらもさらなる開発が必要です。暗号エージェントが新しいオンチェーン暗号通貨のユースケースを超えて有用になるためには、規制の明確化とともに、支払い形態としての暗号通貨のより広範な統合と受け入れが必要です。しかし、これらのコンポーネントが発展するにつれて、エージェントは分散型コンピューティングとzkMLソリューションの最大の消費者の1つになり、非決定論的な方法であらゆるタスクを自律的に受信して解決する態勢を整えています。

結論

AIは、暗号通貨にWeb2で見られた革新を導入し、インフラ開発からユーザーエクスペリエンスやアクセシビリティまですべてを向上させます。しかし、プロジェクトはまだ開発初期段階にあり、暗号通貨とAIの近い将来の統合は主にオフチェーンの統合によって推進されるでしょう。

Copilotなどの製品は、「開発者の効率を10倍に向上させる」とされており、Layer 1およびDeFiアプリケーションはすでに主要企業との提携によりAI支援の開発プラットフォームを導入しています。Cub3.aiやTest Machineなどの企業では、スマートコントラクトの監査やリアルタイムの脅威監視に向けたAI統合を開発し、オンチェーンセキュリティを強化しています。LLMチャットボットは、オンチェーンデータ、プロトコルの文書、およびアプリケーションを学習し、ユーザーに拡張されたアクセシビリティとユーザーエクスペリエンスを提供するように訓練されています。

暗号通貨の基盤技術を本当に活用するより高度な統合に対する課題は、オンチェーンでのAIソリューションの実装が技術的にも経済的にも実現可能であることを証明することです。分散コンピューティング、zkML、AIエージェントの開発は、暗号通貨とAIの深くつながった未来のための基盤を築く有望な垂直を示しています。

免責事項:

  1. この記事はから転載されていますtechflowすべての著作権は元の著者に帰属します[ルーカス・チェヤン]. If there are objections to this reprint, please contact the Gate Learn(ゲート・ラーン)チームはそれを迅速に処理します。
  2. 責任の免除: この記事で表現されている意見は、著者個人のものであり、投資アドバイスを構成するものではありません。
  3. 他の言語への記事の翻訳は、Gate Learnチームによって行われます。特に記載されていない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!