AIとDePINの交差点:分散化GPUネットワークの台頭が300億ドル市場を再構築する

AIとDePINの交差点:分散型GPUネットワークの台頭

最近、人工知能と分散化物理インフラネットワーク(DePIN)がWeb3分野のホットな話題となり、市場価値はそれぞれ300億ドルと230億ドルに達しました。この記事では、両者の交差点を探り、関連プロトコルの発展を研究します。

AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIに力を与えています。大手テクノロジー企業によるGPU不足のため、他のAIモデルを開発するチームは十分なGPU計算能力を得ることが困難です。従来の方法は集中化されたクラウドサービスプロバイダーを選ぶことですが、柔軟性のない長期契約を結ぶ必要があり、効率が低下します。

DePINは、トークン報酬によるリソース貢献を促進することで、より柔軟でコスト効果の高い代替手段を提供します。AI分野のDePINは、個人の所有者からデータセンターへGPUリソースを統合し、ユーザーに統一された供給を提供します。これは、開発者にカスタマイズされたオンデマンドの計算能力を提供するだけでなく、GPU所有者に追加の収入を生み出します。

現在、市場には複数のAI DePINネットワークがあり、それぞれに特徴があります。次に、各プロトコルの役割、目標、そして達成した成果を探求し、それらの違いを深く理解していきます。

! AIとDePINの交差点

AI DePINネットワークの概要

RenderはP2P GPU計算ネットワークの先駆者であり、最初はコンテンツ制作のレンダリングに特化し、その後AI計算タスクに拡大しました。このプロジェクトは、オスカー技術賞を受賞したクラウドグラフィックス会社OTOYによって設立され、彼らのGPUネットワークはパラマウントやPUBGなどの大企業に利用されています。Renderはまた、Stability AIなどと提携し、AIモデルと3Dコンテンツのレンダリングプロセスを統合しています。

Akashは、ストレージ、GPU、CPU計算をサポートする「スーパークラウド」プラットフォームとして位置づけられています。これは、コンテナプラットフォームとKubernetes管理の計算ノードを利用し、異なる環境でソフトウェアをシームレスに展開できます。Akash上では、Mistral AIのLLMチャットボットやStability AIのテキスト生成画像モデルなどのアプリケーションが稼働しています。

io.net は、AI と機械学習専用の分散化 GPU クラウドクラスターを提供しています。同社は元々、量的取引会社でしたが、現在のビジネスに転換しました。その IO-SDK は PyTorch や TensorFlow などのフレームワークと互換性があり、マルチレイヤーアーキテクチャはニーズに応じて動的に拡張できます。io.net は Render や Filecoin などとも協力して GPU リソースを統合しています。

Gensyn は、機械学習と深層学習計算に特化したGPUネットワークです。学習証明や、グラフに基づく精密位置決定プロトコルなどの技術を通じて、高効率の検証メカニズムを実現しています。Gensynは、事前トレーニングされたベースモデルを微調整して、より具体的なタスクを完了することができます。

Aethir は、AI、機械学習、クラウドゲームなどの計算集約型分野向けに、企業向けのGPUを提供しています。そのネットワーク内のコンテナは、クラウドアプリケーションの仮想エンドポイントとして機能し、ワークロードをローカルデバイスからコンテナに移動させ、低遅延の体験を実現します。Aethir はまた、クラウドフォンサービスにも拡張しており、複数のWeb2およびWeb3企業との協力関係を築いています。

Phala Network はWeb3 AIソリューションの実行層として、信頼できる実行環境(TEE)を通じてプライバシー問題を処理します。それにより、AIエージェントはオンチェーンのスマートコントラクトによって制御され、将来的にはH100などのTEE GPUをサポートして計算能力を向上させる予定です。

! AIとDePINの交差点

プロジェクト比較

| | レンダー | アカシュ | io.net | ジェンシン | エーテル | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | 人工知能、クラウドゲームとテレコム | チェーン上のAI実行 | | AI タスクの種類 | 推論 | どちらも | どちらも | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&散列 | mTLS 認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | セキュリティ | レンダリング証明 | ステーク証明 | 計算証明 | ステーク証明 | レンダリング能力証明 | リレーチェーンから継承 | | 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE証明 | | 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |

###の重要性

クラスターと並列計算の可用性

分散化計算フレームワークはGPUクラスターを実現し、モデルの正確性を保証しながらトレーニング効率とスケーラビリティを向上させました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散化計算に依存します。例えば、OpenAIのGPT-4モデルは1.8兆以上のパラメータを持ち、約25,000個のNvidia A100 GPUを使用して3~4ヶ月でトレーニングされました。

ほとんどのプロジェクトは、クラスタを統合して並列計算を実現しています。io.netは他のプロジェクトと協力し、24年の第1四半期に3,800以上のクラスタを展開しました。Renderはクラスタをサポートしていませんが、その動作原理は似ており、単一のフレームを複数のノードに分解して同時に処理します。Phalaは現在CPUのみをサポートしていますが、CPUワーカーの分散化を許可しています。

データプライバシー

AIモデルの開発には大量のデータセットが必要であり、敏感な情報が含まれている可能性があります。データのプライバシーを確保することは、データのコントロール権を提供者に戻すために重要です。ほとんどのプロジェクトは、何らかの形のデータ暗号化を採用しています。io.netは最近、Mind Networkと協力して完全同型暗号(FHE)を導入し、暗号化されたデータを解読せずに処理することを可能にしました。Phala Networkは信頼できる実行環境(TEE)を導入し、外部プロセスによるデータのアクセスや変更を防ぎます。

計算と品質チェックの完了証明

サービスの範囲が広いため、レンダリングからAI計算まで、最終的な品質がユーザーの基準を常に満たすわけではありません。証明書の取得と品質チェックはユーザーにとって有益です。GensynとAethirの生成証明は、作業が完了したことを示し、品質チェックを行います。io.netの証明は、GPUの性能が十分に活用されていることを示しています。Renderは、問題のあるノードに対して罰則を科すための紛争解決プロセスの使用を推奨しています。Phalaは、AIエージェントが必要な操作を実行することを保証するTEE証明を生成します。

! AIとDePINの交差点

ハードウェア統計データ

| | レンダー | アカシュ | io.net | ジェンシン | エイシア | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |

高性能GPUの要件

AIモデルのトレーニングは、NvidiaのA100やH100などの高性能GPUを使用する傾向があります。H100の推論性能はA100の4倍速く、大企業がLLMをトレーニングする際の選択肢となっています。分散化GPU市場の提供者は、Web2の競合他社と競争するために十分な数の高性能ハードウェアを提供する必要があります。io.netとAethirはそれぞれ2000以上のH100とA100ユニットを保有しており、大規模なモデル計算により適しています。

分散化GPUサービスのコストは、中央集権サービスよりも遥かに低くなっています。GensynとAethirは、A100に相当するハードウェアを1時間あたり1ドル未満でレンタルできると主張しています。しかし、ネットワーク接続のGPUクラスターはメモリの面で制限を受ける可能性があり、大量のパラメータとデータセットを持つLLMSにはNVLink接続のGPUの方が適しています。

それにもかかわらず、分散化GPUネットワークは分散計算タスクに対して強力な計算能力とスケーラビリティを提供し、より多くのAIおよびMLユースケースを構築するための機会を開きました。

! AIとDePINの交差点

コンシューマーグレードのGPU/CPUを提供

GPUは主要な処理ユニットですが、CPUもAIモデルのトレーニングにおいて重要な役割を果たします。コンシューマ向けGPUは、事前トレーニングされたモデルの微調整や、小規模なデータセットでの小型モデルのトレーニングなど、より小規模なタスクに使用できます。Render、Akash、io.netなどのプロジェクトもこの市場にサービスを提供しており、使われていないコンシューマーのGPUリソースを活用しています。

! AIとDePINの交差点

まとめ

AI DePIN領域は依然として比較的新興であり、課題に直面しています。しかし、これらのネットワーク上で実行されるタスクとハードウェアの数が著しく増加しており、Web2クラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。この傾向は、AI DePINネットワークの製品市場適合度を証明し、需要と供給の課題を効果的に解決しています。

未来を展望すると、AIは数万億ドル規模の急成長する市場に発展することが期待されています。これらの分散化GPUネットワークは、開発者に対して経済的に効率的な計算代替手段を提供する上で重要な役割を果たし、AIと計算インフラの未来の構造に大きな貢献をするでしょう。

! AIとDePINの交差点

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 4
  • 共有
コメント
0/400
ContractFreelancervip
· 3時間前
なんてこった なんてこった、また金を奪う競技場だ
原文表示返信0
MintMastervip
· 11時間前
規模が小さい 300億はただの始まり~
原文表示返信0
RugDocDetectivevip
· 11時間前
また一つプロの初心者をカモにしようとするもの
原文表示返信0
CryptoGoldminevip
· 12時間前
データが語る GPUの平均日収益は30%ROIを超え、ポジション構築に適している
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)