This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI DePINの台頭:分散化GPUネットワークが計算インフラを再構築する
AIとDePINの交差:分散化されたGPUネットワークの台頭
最近、AIとDePINはWeb3分野の人気のトレンドとなり、市場価値はそれぞれ300億ドルと230億ドルに達しました。本稿では、両者の交差領域に焦点を当て、関連プロトコルの発展について探ります。
! AIとDePINの交差点
AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIを強化しています。大手テクノロジー企業によるGPU不足のため、他の開発者はAIモデル計算に必要な十分なGPUを得ることが難しくなっています。従来の方法は分散化されたクラウドサービスプロバイダーを選択することですが、柔軟性のない長期契約を結ぶ必要があり、効率が低下します。
DePINは、トークン報酬を通じてリソース貢献を奨励する、より柔軟でコストパフォーマンスの高い代替ソリューションを提供します。AI分野のDePINは、個人のGPUリソースをデータセンターに統合し、ユーザーに統一供給を提供します。これにより、開発者にはカスタマイズされたオンデマンドサービスが提供されるだけでなく、GPU所有者には追加収入が生まれます。
市場にはさまざまなAI DePINネットワークが存在し、この記事では各プロトコルの機能、目標、成果、およびそれらの違いを分析します。
AI DePINネットワークの概要
レンダー
RenderはP2P GPU計算ネットワークの先駆者であり、最初はコンテンツ制作のレンダリングに特化していましたが、後にStable Diffusionなどのツールを統合することでAI計算タスクに拡大しました。
ハイライト:
アカシュ
Akashは、AWSなどの従来のサービスプロバイダーに代わる"スーパークラウド"プラットフォームとして、ストレージ、GPU、CPU計算をサポートすることを目的としています。コンテナプラットフォームとKubernetesによって管理された計算ノードを利用することで、あらゆるクラウドネイティブアプリケーションをシームレスに展開できます。
ハイライト:
io.net
io.netは、AIおよびMLシナリオ専用の分散型GPUクラスタを提供します。データセンター、暗号マイナーなどの分野のGPUリソースを統合します。
ハイライト:
ゲンシン
Gensynは、機械学習と深層学習に特化したGPU計算能力を提供します。学習証明などのメカニズムを通じて、検証効率を向上させます。
ハイライト:
アエティール
Aethirは企業向けのGPUを搭載し、AI、ML、クラウドゲームなどの計算集約型分野に焦点を当てています。コンテナを通じて作業負荷をローカルからクラウドに移行し、低遅延を実現します。
ハイライト:
ファラネットワーク
Phala NetworkはWeb3 AIソリューションの実行層として、信頼できる実行環境(TEE)を通じてプライバシーの問題を処理します。AIエージェントはチェーン上のスマートコントラクトによって制御されることができます。
ハイライト:
プロジェクト比較
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | チェーン上のAI実行 | | AIタスクタイプ | 推論 | 双方向 | 双方向 | トレーニング | トレーニング | 実行 | | 価格設定 | パフォーマンスに基づく | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&分散化 | mTLS 認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5%/ワーク | 20% USDC、4% AKT | 2% USDC、0.25%リザーブ | 低料金 | 20%/セッション | ステーキングに比例 | | 安全 | レンダリング証明 | 資産証明 | 計算証明 | 資産証明 | レンダリング能力証明 | 中継チェーンから継承 | | 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE証明 | | 品質保証 | 争議メカニズム | - | - | 検証者と通報 | チェックノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |
! AIとDePINの交差点
###の重要性
クラスタと並列計算の可用性
分散化計算フレームワークはGPUクラスターを実現し、より効率的なトレーニングと拡張性を強化します。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散化計算に依存します。例えば、OpenAIのGPT-4モデルは超1.8兆のパラメータを持ち、3~4か月かかり、128のクラスターと約25,000のNvidia A100 GPUを使用しています。
ほとんどのプロジェクトは、現在クラスターを統合して並列計算を実現しています。io.netは他のプロジェクトと協力し、Q1に3,800以上のクラスターを展開しました。Renderはクラスターをサポートしていませんが、単一フレームを複数のノードで同時処理するように分解します。Phalaは現在CPUのみをサポートしていますが、CPUワーカーの分散化を許可しています。
クラスター フレームワークは AI ワークフロー ネットワークにとって重要ですが、AI 開発者のニーズを満たすクラスター GPU の数と種類は別の問題です。
データプライバシー
AIモデルの開発には大量のデータセットが必要であり、敏感な情報が含まれる可能性があります。データプライバシーの方法は、データのコントロール権を保護するために重要です。
ほとんどのプロジェクトは、データプライバシーを保護するために何らかの暗号化を使用しています。Renderはレンダリング結果を公開する際に暗号化とハッシュを使用します。io.netとGensynはデータ暗号化を採用しています。AkashはmTLS認証を使用し、指定されたプロバイダーのみがデータを受信できるようにしています。
io.netは最近、Mind Networkと協力して完全同態暗号(FHE)を導入し、暗号化データを直接処理できるようにしました。これは既存の暗号技術よりもプライバシーをより良く保護します。
Phala Networkは信頼できる実行環境(TEE)を導入し、外部からのアクセスやデータの変更を隔離して防止します。また、zk-proofsを組み合わせてRiscZero zkVMプログラムを統合しています。
完了証明と品質チェックの計算
計算完了証明は、GPUが実際に必要なサービスに使用されていることを示しており、品質検査はユーザーにとって有益です。
GensynとAethirは作業証明を生成し、io.netはGPUの性能が十分に利用されていることを証明します。GensynとAethirは品質検査を行います。Gensynは検証者を使用して一部の証明を再実行し、通報者を追加の検査として利用します。Aethirは検査ポイントを使用してサービス品質を評価します。Renderは問題のあるノードを処理するために紛争解決プロセスの使用を提案します。PhalaはTEE証明を生成し、AIエージェントが必要な操作を実行することを保証します。
ハードウェア統計データ
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |
! AIとDePINの交差点
ハイパフォーマンス GPU の要件
AIモデルのトレーニングは、Nvidia A100やH100などの高性能GPUを使用する傾向があります。H100の推論性能はA100の4倍であり、大企業がLLMをトレーニングする際の選択肢となっています。
分散化GPU市場のプロバイダーは、より低価格を提供するだけでなく、実際の需要を満たす必要があります。2023年にNvidiaは大手テクノロジー企業に50万台以上のH100を納入し、同等のハードウェアを入手することが困難になりました。プロジェクトが低コストで導入できるハードウェアの数量を考慮することが重要です。
Akashは150以上のH100とA100しか持っておらず、io.netとAethirはそれぞれ2000以上持っています。ゼロから事前訓練されたLLMは通常248から2000以上のGPUクラスターを必要とし、後者の2つのプロジェクトは大規模モデル計算により適しています。
現在、分散化GPUサービスのコストは、中央集権サービスを下回っています。GensynとAethirは、A100クラスのハードウェアのレンタル料が1ドル未満であると主張していますが、まだ検証が必要です。
ネットワーク接続GPUクラスターは安価ですが、メモリが制限されています。NVLinkはGPU間の直接通信をサポートし、パラメータが多く、データセットが大きいLLMSに適しています。
それにもかかわらず、分散化されたGPUネットワークは分散コンピューティングに強力な能力とスケーラビリティを提供し、より多くのAIおよびMLユースケースを構築するための寡頭独占の状況を開きます。
! AIとDePINの交差点
コンシューマー向けGPU/CPUを提供
AIモデルのトレーニングにおいて、CPUはデータ前処理やメモリ管理において非常に重要です。コンシューマ向けGPUは、事前トレーニングされたモデルの微調整や小規模なトレーニングに使用できます。
85%以上の消費者のGPUが未使用であることを考慮すると、Render、Akash、io.netなどのプロジェクトもこの市場にサービスを提供できます。これらの選択肢を提供することで、独自の市場ポジショニングを開発し、大規模な集中的な計算、一般的な小規模なレンダリング、またはハイブリッドモードに焦点を当てることができます。
まとめ
AI DePIN分野はまだ新しく、課題に直面しています。例えば、io.netはGPUの数を偽造したと非難され、その後、プルーフ・オブ・ワークを導入することで問題を解決しました。
それにもかかわらず、分散化GPUネットワーク上で実行されるタスクとハードウェアの数は著しく増加し、Web2クラウドサービスの代替品に対する需要の増加を浮き彫りにしています。ハードウェアプロバイダーの急増は、以前は十分に活用されていなかった供給を示しています。これはAI DePINネットワークの製品市場適合度を証明しており、需要と供給の課題を効果的に解決しています。
未来を展望すると、AIは繁栄する数兆ドル市場に成長し、これらの分散GPUネットワークは開発者に経済的に効率的な計算の代替手段を提供します。需要と供給のギャップを継続的に埋めることで、これらのネットワークはAIと計算インフラの将来の構造に重要な貢献をするでしょう。
! AIとDePINの交差点
! AIとDePINの交差点
! AIとDePINの交差点
! AIとDePINの交差点