OpenLedger: データ駆動型モデルを構築できるコンポーザブルなWeb3 AI経済

OpenLedgerデプス研究:データ駆動型、モデルコンポーザブルなエージェント経済の構築

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデルと算力はAIインフラの三大核心要素であり、欠かすことができません。従来のAI業界のインフラの進化経路に似て、Crypto AI分野も似たような段階を経ています。2024年初頭、市場は一時去中心化GPUプロジェクトに主導され、一般的に「算力の競争」による粗放成長の論理が強調されていました。しかし、2025年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AIが底層資源競争からより持続可能で応用価値のある中層構築へと移行していることを示しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模はしばしば70B~500Bに達し、一度のトレーニングコストは数百万ドルに及ぶことが多い。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低下させる。

注意すべき点は、SLM は LLM の重みの中には統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRA モジュールのホットプラグ、RAG(リトリーブ強化生成)などの方法を通じて LLM と協力して動作することです。このアーキテクチャは、LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーションインテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。核心的な理由は、

  • 技術的なハードルが高すぎる:Foundation Model のトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に大きく、現在、米国や中国などのテクノロジー大手のみがそれに相応する能力を持っている。
  • オープンソースエコシステムの制限:主流の基盤モデルはオープンソース化されていますが、モデルの突破を推進する鍵は依然として研究機関とクローズドエンジニアリングシステムに集中しており、チェーン上のプロジェクトはコアモデルレイヤーへの参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは、特化型言語モデル(SLM)をファインチューニングし、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に具現化されます:

  • 信頼性検証層:チェーン上にモデル生成パス、データの貢献と使用状況を記録することで、AI出力の追跡可能性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを活用し、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を促進し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

これにより、モデル型 Crypto AI プロジェクトの実行可能なポイントは、主に小型 SLM の軽量化微調整、RAG アーキテクチャのチェーン上データ接続と検証、そして Edge モデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Crypto はこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献元を明確かつ改ざん不可能な形でオンチェーン記録し、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。また、スマートコントラクト機構を通じて、データまたはモデルが呼び出された際に自動的に報酬配布がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブ体系を構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と改訂に参加し、分散型ガバナンス構造を改善することができます。

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在の市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」の概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーションビルダーが同じプラットフォームで協力し、実際の貢献に基づいてオンチェーン報酬を得ることができるようにします。

OpenLedgerは「データ提供」から「モデルデプロイ」そして「呼び出し分配」までの全チェーン閉ループを提供しており、そのコアモジュールには次のものが含まれています:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRAを使って微調整トレーニングし、カスタムモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(アトリビューションの証明):チェーン上の呼び出し記録を通じて貢献度測定と報酬配分を実現する;
  • Datanets:特定の垂直シーンに向けた構造化データネットワークで、コミュニティの協力によって構築・検証される;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデル市場。

以上のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIバリューチェーンのオンチェーン化を推進しています。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OP Stackを基に構築:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM互換:開発者がSolidityに基づいて迅速にデプロイおよび拡張するのに便利です。
  • EigenDAはデータ可用性サポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を保証します。

NEARのような、より基盤的でデータ主権と「AI Agents on BOS」アーキテクチャを主打とした汎用AIチェーンに対して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、コンポーザブルで持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上のコンポーザブルインターフェースを組み合わせて、「モデルは資産」という実現への道を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステム内の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは、OpenLedger 上で完了した承認と審査のデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニング、およびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、プロバイダーが審査・承認し、データが自動的にモデル訓練インターフェースに接続されます。
  • モデル選択と設定: 主流の LLM をサポートし、GUI でハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵評価ツールで、デプロイやエコシステム共有呼び出しのエクスポートをサポート。
  • インタラクティブ検証インターフェース:チャット式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ: 参照元を伴う回答を提供し、信頼性と監査可能性を強化します。

Model Factoryのシステムアーキテクチャは、6つの主要モジュールを含み、アイデンティティ認証、データ権限、モデルの微調整、評価の展開、RAGのトレーサビリティを通じて、安全で制御可能、リアルタイムのインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が優れており、柔軟な展開やリソースが限られたシーンに適しています。
  • Qwen:中文タスクの性能が優れており、総合能力が高く、国内の開発者に最適です。
  • ChatGLM:中文対話の効果が優れており、垂直型カスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論において優れた性能を発揮し、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、迅速に習得し実験することが容易です。
  • ファルコン:かつては性能のベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活発度は低下しました。
  • BLOOM:多言語サポートが強いが、推論性能は弱く、言語カバレッジ型の研究に適している。
  • GPT-2:古典的初期モデルで、教育および検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルコンビネーションは最新の高性能MoEモデルやマルチモーダルモデルを含んでいないものの、その戦略は古臭くはなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAG適合、LoRA互換、EVM環境)に基づいて「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、現金化可能性、そして組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供する;
  • プラットフォームについて:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、高効率なパラメータ微調整方法であり、事前学習された大規模モデルに「低秩行列」を挿入して新しいタスクを学習し、元のモデルパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデルは通常、数十億または数百億のパラメータを持っています。これらを特定のタスクに使用するには、微調整を行う必要があります。LoRAのコア戦略は:「元の大規模モデルのパラメータを凍結し、挿入された新しいパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、トレーニングの迅速さ、デプロイの柔軟性から、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAはOpenLedgerが構築した、マルチモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルデプロイメントにおける一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「支払可能なAI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づき、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデル展開と呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール (LoRAアダプターのストレージ):微調整されたLoRAアダプターはOpenLedgerにホストされ、オンデマンドでロードされるため、すべてのモデルを事前にビデオメモリに読み込むことを回避し、リソースを節約します。
  • モデルホスティングとダイナミックマージングレイヤー (Model Hosting & Adapter Merging Layer):全てのファインチューニングモデルは基礎となる大モデルを共有し、推論時にLoRAアダプタがダイナミックにマージされ、複数のアダプタによる共同推論をサポートし、性能を向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
  • リクエストルーターとトークンストリーミングモジュール (Request Router & Token Streaming): リクエストで必要なモデルに基づいて適切なアダプターに動的にルーティングし、最適化されたコアを通じてトークンレベルでのストリーミング生成を実現します。

OpenLoRAの推論プロセスは技術的な側面で「成熟した一般的」なモデルサービスプロセスに属しており、以下の通りです:

  • 基礎モデルのロード:システムが LLaMA 3 などを事前にロードします。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • 共有
コメント
0/400
airdrop_huntressvip
· 12時間前
重点はAIデータです
原文表示返信0
FudVaccinatorvip
· 12時間前
堆料はデプスがある
原文表示返信0
SeeYouInFourYearsvip
· 12時間前
未来は明るい
原文表示返信0
StablecoinArbitrageurvip
· 12時間前
データ駆動型の興味深いモデル
原文表示返信0
GasFeeDodgervip
· 12時間前
ますます多様化しています
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)