OpenLedgerはAIオンチェーンエコシステムを構築:OP Stack+EigenDA基盤が知能経済の新しいパラダイムを作る

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデル可組合せのインテリジェントエコノミーを構築

一、引言 | Crypto AI のモデルレイヤーの飛躍

データ、モデルと算力は AI インフラストラクチャの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)の例えで欠かせないものです。従来の AI 業界のインフラの進化パスと同様に、Crypto AI 分野も類似の段階を経てきました。2024 年初頭、市場は一時去中心化 GPU プロジェクトによって主導され、一般的に「算力を競う」粗放型の成長ロジックが強調されました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が基盤資源競争からより持続可能で応用価値のある中層構築に移行していることを示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)トレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータ規模は70B~500Bに上り、トレーニング1回のコストは数百万ドルに達することがよくあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量なファインチューニングのパラダイムとして、通常はオープンソースモデルに基づき、少量の高品質な専門データやLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に削減します。

注目すべきは、SLM は LLM の重みの中に統合されるのではなく、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRA モジュールのホットスワップ、RAG(リトリーバル強化生成)などの方法で LLM と協調して動作することです。このアーキテクチャは LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーション型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。核心的な理由は、

  • 技術的ハードルが高すぎる:Foundation Modelのトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在はアメリカや中国などのテクノロジー大手のみが対応できる能力を持っている。
  • オープンソースエコシステムの限界:主流の基盤モデルはすでにオープンソース化されていますが、モデルの突破を推進する鍵は依然として研究機関とクローズドソースのエンジニアリングシステムに集中しており、ブロックチェーンプロジェクトはコアモデルレイヤーにおける参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは依然として特化型言語モデル(SLM)を微調整し、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。「AI 産業チェーンの周辺インターフェース層」として、2つのコア方向に表れています:

  • 信頼できる検証レイヤー:オンチェーンでモデル生成のパス、データの貢献と使用状況を記録することで、AI出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データアップロード、モデル呼び出し、エージェント(Agent)実行などの行動を奨励し、モデルのトレーニングとサービスの正のサイクルを構築します。

AIモデルタイプ分類とブロックチェーン適用性分析

これにより、モデルタイプのCrypto AIプロジェクトの実行可能な落ち点は、主に小型SLMの軽量化と微調整、RAGアーキテクチャのチェーン上データの接続と検証、およびEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源を明確かつ改ざん不可能な形でブロックチェーンに記録し、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データやモデルが呼び出される際に自動的に報酬の分配がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と改訂に参加して、分散型ガバナンスアーキテクチャを改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは現在市場において数少ないデータとモデルインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」という概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データ寄与者、モデル開発者、AIアプリケーション開発者が同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の収益を得ることを奨励します。

OpenLedgerは、「データ提供」から「モデルデプロイ」さらには「収益分配の呼び出し」までの全チェーンのクローズドループを提供し、そのコアモジュールには次のものが含まれています:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMに基づいてLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:コミュニティの協力によって構築および検証された、垂直シーン向けの構造化データネットワーク;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedger はデータ駆動型でモデルが組み合わさった「エージェント経済基盤」を構築し、AI バリューチェーンのオンチェーン化を促進しました。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能で低コスト、かつ検証可能なデータと契約の実行環境を構築しました。

  • OPスタックに基づいて構築:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換: 開発者が Solidity に基づいて迅速にデプロイと拡張を行うのに便利;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を保障します。

NEARのようなより基層的でデータ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンに比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力し、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループで実現することを目指しています。これはWeb3の世界におけるモデルインセンティブのインフラであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの使用課金、Infuraスタイルのチェーン上の組み合わせ可能なインターフェースを組み合わせて「モデルは資産である」という実現の道筋を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要モデルファクトリー

ModelFactory は OpenLedger エコシステムの下にある大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した認可とレビューのデータセットに基づいてモデルを微調整できます。データの認可、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには次のものが含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査・承認し、データが自動的にモデル訓練インターフェースに接続される。
  • モデル選択と設定: 主流の LLM をサポートし、GUI を通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクション検証インターフェース: チャット形式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ: 出典を引用した回答で、信頼性と監査可能性を高めます。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイおよび RAG トレーサビリティを貫通する6つの主要モジュールで構成されており、安全で制御可能、リアルタイムのインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

ModelFactory 現在サポートしている大規模言語モデル機能の簡易表は以下の通りです。

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在最も主流なオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシナリオに適しています。
  • Qwen:強力な総合能力、国内の開発者に適しています。
  • ChatGLM:中国語の対話効果が優れており、特化型のカスタマーサービスやローカライズされたシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れた性能を発揮し、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、迅速に習得し実験するのが容易です。
  • フェルコン:かつてはパフォーマンスのベンチマークで、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しました。
  • BLOOM:多言語サポートが強いが、推論性能は低く、言語カバレッジ型の研究に適している。
  • GPT-2:古典的初期モデルであり、教育や検証用にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーンのデプロイメントにおける現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいて「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、マネタイズ可能性、そしてコンボ可能性の利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収入の完全なパスを提供します。
  • プラットフォームに対して:モデル資産の流通と組み合わせエコシステムを形成する;
  • ユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、事前訓練された大規模モデルに「低秩行列」を挿入して新しいタスクを学習する効率的なパラメータ微調整方法であり、元のモデルのパラメータを変更せずに、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデルは通常数十億、さらには数百億のパラメータを持っています。これらを特定のタスクに使用するには、微調整(fine-tuning)が必要です。LoRAのコア戦略は:「元の大規模モデルのパラメータを固定し、挿入された新しいパラメータ行列のみをトレーニングする。」そのパラメータ効率、トレーニングの速さ、デプロイの柔軟性により、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最適な主流の微調整方法です。

OpenLoRAはOpenLedgerが構築した、多モデル展開とリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデル展開において一般的な高コスト、低再利用、GPUリソースの無駄遣いといった問題を解決し、「可支付AI」(Payable AI)の実行を推進することです。

OpenLoRAシステムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルデプロイと呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール:微調整されたLoRAアダプターはOpenLedgerにホストされ、オンデマンドでロードされることで、すべてのモデルをVRAMにプリロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックフュージョン層:すべてのファインチューニングモデルが基盤となる大モデルを共有し、推論時にLoRAアダプターが動的に統合され、複数のアダプターによる共同推論(アンサンブル)をサポートし、性能を向上させます。 *推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化、およびその他のCUDA最適化を統合
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 8
  • 共有
コメント
0/400
OneCoinForTheWorldvip
· 7時間前
参入ポジション!🚗
原文表示返信0
OneCoinForTheWorldvip
· 7時間前
しっかりしたHODL💎
原文表示返信0
OneCoinForTheWorldvip
· 7時間前
参入ポジション!🚗
原文表示返信0
SignatureDeniedvip
· 7時間前
またweb3を吹いてaiで遊んでいる
原文表示返信0
LidoStakeAddictvip
· 7時間前
遊んでみて、私はまず3つの注文を入れます。
原文表示返信0
CrashHotlinevip
· 7時間前
一攫千金のチャンスを逃すか、行くか
原文表示返信0
ChainBrainvip
· 7時間前
これ、あまりにも競争が激しいですね。
原文表示返信0
ser_ngmivip
· 7時間前
いくつのプロジェクトが途中で死んでしまったのだろうか。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)