AI DePIN分野は依然として相対的に新興であり、自身の課題に直面しています。しかし、これらの分散化GPUネットワーク上で実行されるタスクとハードウェアの数は著しく増加しており、Web2クラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。同時に、ハードウェアプロバイダーの増加も以前に十分に活用されていなかった供給を示しています。これはさらに、AI DePINネットワークの製品市場適合性を証明し、需要と供給の両面における課題を効果的に解決しています。
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AIとDePINの衝突:分散型GPUネットワークの開発を探る
AIとDePINの交差点:分散型GPUネットワークの開発を探る
2023年以降、AIとDePINはWeb3分野で注目を集めており、それぞれの時価総額は300億ドルと230億ドルに達しています。本稿では両者の交差領域に焦点を当て、関連プロトコルの発展状況を探ります。
AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIに力を与えています。大手テクノロジー企業の発展によりGPUが不足しているため、他の開発者は自分のAIモデルを構築するために十分なGPUリソースを得ることが難しいです。従来、開発者は中央集権的なクラウドサービスプロバイダーを選択していましたが、これはしばしば柔軟性のない長期契約を結ぶ必要があり、効率が低下します。
DePINは、より柔軟でコスト効率の高い代替手段を提供します。これは、トークン報酬を通じてリソース貢献を奨励し、GPUリソースを個人所有者からデータセンターにクラウドソーシングし、ハードウェアを必要とするユーザーに統一された供給を形成します。これは、開発者にカスタマイズ可能でオンデマンドの計算能力を提供するだけでなく、GPU所有者に追加の収入源を提供します。
市場にはすでに複数のAI DePINネットワークが存在し、それぞれに特徴があります。次に、いくつかの主要なプロジェクトの特徴と目標、そしてそれらの具体的な成果について探っていきます。
! AIとDePINの交差点
AI DePINネットワークの概要
RenderはGPU計算能力を提供するP2Pネットワークの先駆者であり、最初はコンテンツ制作のレンダリングに注力していましたが、後に範囲をAI計算タスクに拡大しました。
特異:
Akashは、ストレージ、GPU及びCPU計算をサポートする"スーパー・クラウド"の代替品として位置付けられています。コンテナプラットフォームとKubernetesによって管理される計算ノードを利用し、環境を超えてシームレスにソフトウェアを展開し、あらゆるクラウドネイティブアプリケーションを実行できます。
特異:
io.netは、AIおよびMLユースケース専用の分散GPUクラウドクラスターへのアクセスを提供します。これは、データセンター、暗号マイナー、およびその他の分散ネットワークからのGPUリソースを集約します。
特異:
Gensynは、機械学習および深層学習計算に特化したGPU計算能力を提供します。革新的な検証メカニズムを通じて、効率を向上させます。
特異:
Aethirは企業向けGPUを搭載し、AI、ML、クラウドゲームなどの計算集約型分野に特化しています。そのネットワーク内のコンテナは、クラウドベースのアプリケーションを実行する仮想エンドポイントとして機能します。
特異:
Phala NetworkはWeb3 AIソリューションの実行層です。そのブロックチェーンは、信頼の不要なクラウドコンピューティングソリューションであり、信頼できる実行環境(TEE)を通じてプライバシー問題を処理するように設計されています。
特異:
! AIとDePINの交差点
プロジェクト比較
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | オンチェーンAI実行 | | AI タスクの種類 | 推論 | 両方 | 両方 | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&分散化 | mTLS認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | 安全 | レンダリング証明 | ステーク証明 | 計算証明 | ステーク証明 | レンダリング能力証明 | リレーチェーンから継承 | | 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE証明 | | 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |
###の重要性
クラスタと並列計算の可用性
分散化計算フレームワークはGPUクラスターを実現し、モデルの精度に影響を与えずにより効率的なトレーニングを提供し、同時にスケーラビリティを強化しました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散化計算に依存します。例えば、OpenAIのGPT-4モデルは18兆以上のパラメーターを持ち、3〜4ヶ月の間に128のクラスターで約25,000のNvidia A100 GPUを使用してトレーニングされました。
ほとんどの重点プロジェクトは現在、並列計算を実現するためにクラスターを統合しています。io.netはRender、Filecoin、Aethirなどのプロジェクトと協力し、より多くのGPUをネットワークに取り入れ、24年の第1四半期に3,800を超えるクラスターを展開しました。Renderはクラスターをサポートしていませんが、単一のフレームを複数のノードに分解して同時に処理する点で似ています。Phalaは現在、CPUのみをサポートしていますが、CPUワーカーのクラスター化を許可しています。
データプライバシー
AIモデルの開発には大量のデータセットが必要であり、これらのデータには機密情報が含まれている可能性があります。データプライバシーを確保することは、データの管理権をデータ提供者に返す上で極めて重要です。
ほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。Renderはレンダリング結果を公開する際に暗号化とハッシュ処理を使用し、io.netとGensynはデータ暗号化を採用し、AkashはmTLS認証を使用しています。
io.netは最近、Mind Networkと協力して完全同態暗号(FHE)を導入しました。これにより、データを先に解読することなく暗号化されたデータを処理することが可能になります。Phala Networkは、外部プロセスがデータにアクセスしたり変更したりするのを防ぐために、信頼できる実行環境(TEE)を導入しました。
計算完了証明と品質チェック
これらのプロジェクトが提供するGPUは、グラフィックスのレンダリングからAI計算まで幅広いサービスに使用できるため、証明および品質チェックのメカニズムを完了する必要があります。
GensynとAethirは計算が完了した後に証明を生成し、io.netの証明はレンタルされたGPUの性能が十分に活用されていることを示します。GensynとAethirは完了した計算に対して品質チェックを行います。Renderは紛争解決プロセスの使用を推奨します。Phalaは完了後にTEE証明を生成し、AIエージェントがチェーン上で必要な操作を実行することを保証します。
! AIとDePINの交差点
ハードウェア統計データ
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |
高性能GPUの要件
AIモデルのトレーニングには、NvidiaのA100やH100のような最高性能のGPUが必要です。H100の推論性能はA100の4倍速く、特に自社のLLMをトレーニングしている大企業にとっては、最適なGPUとなっています。
分散化GPU市場の提供者は、Web2の競合と競争するために、より低価格を提供するだけでなく、市場の実際の需要を満たす必要があります。2023年、Nvidiaは中央集権的な大手テクノロジー企業に50万台以上のH100を納入し、同等のハードウェアの入手が困難になりました。
io.netとAethirはそれぞれ2000以上のH100とA100ユニットを所有しており、大規模モデル計算に適しています。開発者が必要とするクラスターのサイズに基づいて、現在これらの分散化GPUサービスのコストは中央集権型GPUサービスよりもはるかに低くなっています。
ネットワーク接続されたGPUクラスターはメモリ面で制限がありますが、柔軟性と複数のノードにまたがるワークロードの配分能力を必要とするユーザーにとって、分散化GPUネットワークは依然として分散コンピューティングタスクに強力な計算能力とスケーラビリティを提供できます。
コンシューマー向けGPU/CPUを提供
CPUはAIモデルのトレーニングにおいても重要な役割を果たし、データ前処理からメモリリソース管理などの複数の段階で使用されます。コンシューマ向けGPUは、あまり負荷のかからないタスク、例えば事前トレーニングされたモデルの微調整や小規模なデータセットでの小規模モデルのトレーニングに使用できます。
85%以上の消費者のGPUリソースがアイドル状態であることを考慮すると、Render、Akash、io.netなどのプロジェクトはこの市場にもサービスを提供できます。これらのオプションを提供することで、彼らは独自の市場ポジショニングを開発し、大規模な集約計算、小規模なレンダリング、またはその両方の混合に焦点を当てることができます。
! AIとDePINの交差点
まとめ
AI DePIN分野は依然として相対的に新興であり、自身の課題に直面しています。しかし、これらの分散化GPUネットワーク上で実行されるタスクとハードウェアの数は著しく増加しており、Web2クラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。同時に、ハードウェアプロバイダーの増加も以前に十分に活用されていなかった供給を示しています。これはさらに、AI DePINネットワークの製品市場適合性を証明し、需要と供給の両面における課題を効果的に解決しています。
未来を見据えると、AIは数兆ドル規模の成長市場になることが期待されています。これらの分散化されたGPUネットワークは、開発者にコスト効率の良い計算代替手段を提供する上で重要な役割を果たします。需要と供給のギャップを絶えず埋めることで、これらのネットワークはAIと計算インフラの未来の構造に大きく貢献するでしょう。
! AIとDePINの交差点
! AIとDePINの交差点
! AIとDePINの交差点
! AIとDePINの交差点