OpenLedgerГлубина исследования: создание данных-управляемой, модели-комбинируемой экономики агентов
Одно. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры AI, без которых невозможно обойтись. Подобно пути эволюции инфраструктуры традиционной AI отрасли, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок в значительной степени находился под контролем децентрализованных GPU проектов, которые в основном подчеркивали логику грубого роста "сравнения вычислительной мощности". Однако с наступлением 2025 года внимание отрасли постепенно сместилось на уровень моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному для применения среднему строительству.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Универсальная большая модель (LLM) против специализированной модели (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров колеблется от 70B до 500B, а стоимость одной тренировки часто достигает миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке с использованием повторно используемой базовой модели, обычно основанной на открытых моделях, в сочетании с небольшим количеством высококачественных специализированных данных и технологиями, такими как LoRA, для быстрого создания экспертной модели с конкретными областными знаниями, что значительно снижает затраты на обучение и технический порог.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру агентства, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (улучшенная генерация с учетом запросов) и другие методы. Эта архитектура сохраняет широкие возможности LLM и усиливает профессиональные показатели за счет модулей тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Ценность и границы Crypto AI на уровне моделей
Крипто AI проекты по сути сложно непосредственно улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том, что
Слишком высокая техническая планка: объем данных, вычислительных ресурсов и инженерных возможностей, необходимых для обучения Фундаментальной Модели, крайне велик, в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
Ограничения открытой экосистемы: хотя основные модели с открытым исходным кодом уже доступны, ключ к реальному прорыву моделей по-прежнему сосредоточен в научных учреждениях и закрытых инженерных системах, а участие блокчейн-проектов на уровне основных моделей ограничено.
Тем не менее, на основе открытых моделей, проект Crypto AI все еще может реализовать расширение ценности за счет тонкой настройки специализированных языковых моделей (SLM) и сочетания с проверяемостью и механизмом стимулов Web3. В качестве «периферийного интерфейсного слоя» цепочки поставок AI, это проявляется в двух основных направлениях:
Уровень доверительной верификации: улучшает прослеживаемость и стойкость к подделке выходных данных ИИ, записывая на цепи пути генерации модели, вклад данных и их использование.
Механизм стимулирования: с помощью нативного токена для стимулирования таких действий, как загрузка данных, вызов модели, выполнение агента (Agent) и т.д., создание положительного цикла обучения модели и предоставления услуг.
Анализ классификации типов моделей ИИ и их применимость в блокчейне
Из этого видно, что жизнеспособные направления для моделей класса Crypto AI в основном сосредоточены на легкой настройке малых SLM, подключении и проверке данных в цепочке с использованием архитектуры RAG, а также на локальном развертывании и стимулировании моделей Edge. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих сцен с низкими и средними ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить четкую и неизменяемую запись источников вклада каждой единицы данных и моделей, что значительно повышает надежность данных и прослеживаемость обучения моделей. В то же время, через механизм смарт-контрактов автоматически инициируются выплаты вознаграждений при вызове данных или моделей, превращая действия AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность моделей, участвовать в разработке правил и итерациях через голосование токенами, улучшая структуру децентрализованного управления.
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger — это один из немногих блокчейн-AI проектов на рынке, который сосредоточен на механизмах стимулирования данных и моделей. Он первым предложил концепцию «Payable AI», целью которой является создание справедливой, прозрачной и комбинируемой среды для работы AI, которая стимулирует участников, предоставляющих данные, разработчиков моделей и создателей AI-приложений, чтобы они могли сотрудничать на одной платформе и получать доход на цепочке в зависимости от фактического вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели», а затем до «вызова распределения прибыли», его ключевые модули включают:
Модельная фабрика: не требуется программирование, можно использовать LoRA для тонкой настройки, обучения и развертывания настраиваемых моделей на основе открытых LLM;
OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительно снижает затраты на развертывание;
PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через запись вызовов в блокчейне;
Datanets: Структурированная сеть данных, ориентированная на вертикальные сценарии, построенная и проверенная сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рыночный модель на блокчейне.
С помощью вышеуказанных модулей OpenLedger создала инфраструктуру «экономики агентов», основанную на данных и модели, которая способствует онлайнизации цепочки создания стоимости AI.
А в применении технологий блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для работы с данными и контрактами для моделей ИИ.
Построено на OP Stack: Основано на технологии Optimism, поддерживает высокую пропускную способность и низкие расходы на исполнение;
Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
EVM совместимость: удобно разработчикам быстро развертывать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.
В отличие от NEAR, который больше ориентирован на базовый уровень и акцентирует внимание на суверенитете данных и архитектуре «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированной цепочки AI, направленной на стимулирование данных и моделей, стремясь обеспечить возможность разработки и вызова моделей с отслеживанием, комбинированием и устойчивой замкнутой ценностью в цепочке. Это инфраструктура стимулов для моделей в мире Web3, которая сочетает в себе хостинг моделей, выставление счетов за использование и совместимые интерфейсы в цепочке, продвигая путь к реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и техническая архитектура OpenLedger
3.1 Модельный завод, безкодовая модельная фабрика
ModelFactory является платформой для тонкой настройки крупных языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных рамок для тонкой настройки, ModelFactory предлагает чисто графический интерфейс, без необходимости в инструментах командной строки или интеграции API. Пользователи могут выполнять тонкую настройку модели на основе наборов данных, которые были авторизованы и проверены на OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения модели и развертывания, ключевые этапы которого включают:
Контроль доступа к данным: Пользователь отправляет запрос на данные, поставщик проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: поддержка основных LLM, настройка гиперпараметров через GUI.
Легкая настройка: Встроенный движок LoRA / QLoRA, демонстрирующий прогресс обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддерживающие экспорт для развертывания или совместного использования в экосистеме.
Интерфейс взаимодействия для проверки: предоставляет чат-интерфейс, удобный для прямого тестирования способности модели к ответам.
Генерация RAG отслеживания: Ответы с указанием источников, увеличивают доверие и аудитируемость.
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, управление данными, настройку модели, оценку и развертывание, а также RAG-трассировку, создавая безопасную, управляемую, интерактивную и устойчивую платформу для интегрированных модельных услуг.
Список возможностей больших языковых моделей, поддерживаемых ModelFactory, приведен ниже:
Серия LLaMA: самый широкий экосистемный охват, активное сообщество, высокая универсальная производительность, одна из самых популярных открытых базовых моделей на сегодняшний день.
Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
Qwen:Китайские задачи показывают отличные результаты, обладают сильными комплексными способностями, подходят для отечественных разработчиков в качестве первого выбора.
ChatGLM: выдающиеся результаты на китайском языке, подходит для нишевого обслуживания клиентов и локализованных сценариев.
Deepseek: проявляет превосходство в генерации кода и математическом выводе, подходит для инструментов помощи в интеллектуальной разработке.
Gemma: легкая модель, разработанная Google, с четкой структурой, легко осваивается и подходит для быстрого начала работы и экспериментов.
Falcon: Ранее был эталоном производительности, подходит для фундаментальных исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: Поддержка нескольких языков довольно сильная, но производительность вывода слабая, подходит для исследований, охватывающих языки.
GPT-2: Классическая ранняя модель, подходит только для учебных и проверочных целей, не рекомендуется для фактического развертывания.
Хотя комбинация моделей OpenLedger не включает последние высокопроизводительные модели MoE или мультимодальные модели, ее стратегия не устарела, а основана на «приоритете практичности», учитывая реальные ограничения развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как безкодовая инструментальная цепочка, все модели встроены в механизм доказательства вклада, что обеспечивает права участников данных и разработчиков моделей, обладает низким порогом входа, возможностью монетизации и комбинации, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути к инкубации, распространению и доходам моделей;
Для платформы: формирование модели обращения активов и комбинированной экосистемы;
Для пользователей: можно комбинировать использование моделей или агентов, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активизация ончейн-активов модели донастройки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет обучать новые задачи, вставляя «низкоранговые матрицы» в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Чтобы использовать их для конкретных задач, требуется тонкая настройка. Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучать только вставленные новые матричные параметры». Она эффективна по параметрам, быстра в обучении и гибка в развертывании, что делает её актуальным методом тонкой настройки для развертывания и комбинирования вызовов моделей Web3.
OpenLoRA - это легковесная система вывода, разработанная OpenLedger, специально предназначенная для развертывания нескольких моделей и совместного использования ресурсов. Ее основной целью является решение распространенных проблем развертывания AI моделей, таких как высокие затраты, низкая повторяемость, расточительство ресурсов GPU и т. д., а также содействие реализации «оплачиваемого AI» (Payable AI).
OpenLoRA системная архитектура ключевых компонентов, основанная на модульном дизайне, охватывающая модельное хранилище, выполнение вывода, маршрутизацию запросов и другие ключевые этапы, обеспечивая эффективные и низкозатратные возможности развертывания и вызова нескольких моделей:
Хранилище модулей LoRA Adapter (LoRA Adapters Storage): дообученные LoRA адаптеры размещаются на OpenLedger, что позволяет загружать их по мере необходимости, избегая предзагрузки всех моделей в видеопамять, экономя ресурсы.
Модельное хостинг и слой динамического слияния (Model Hosting & Adapter Merging Layer): Все модели с тонкой настройкой используют базовую большую модель, во время вывода динамически объединяются адаптеры LoRA, поддерживая совместный вывод нескольких адаптеров для повышения производительности.
Инфраструктура вывода (Inference Engine): интеграция Flash-Attention, Paged-Attention, SGMV оптимизации и других технологий CUDA оптимизации.
Модуль маршрутизации запросов и потокового вывода (Request Router & Token Streaming): Динамическая маршрутизация к правильному адаптеру в зависимости от модели, необходимой в запросе, с помощью оптимизации ядра для реализации потоковой генерации на уровне токенов.
Процесс вывода OpenLoRA относится к техническому уровню «взрослых универсальных» моделей сервисных процессов, как показано ниже:
Загрузка базовой модели: система предварительно загружает такие модели, как LLaMA 3,
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenLedger: создание модели, управляемой данными, для комбинированной экономики Web3 AI
OpenLedgerГлубина исследования: создание данных-управляемой, модели-комбинируемой экономики агентов
Одно. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры AI, без которых невозможно обойтись. Подобно пути эволюции инфраструктуры традиционной AI отрасли, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок в значительной степени находился под контролем децентрализованных GPU проектов, которые в основном подчеркивали логику грубого роста "сравнения вычислительной мощности". Однако с наступлением 2025 года внимание отрасли постепенно сместилось на уровень моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному для применения среднему строительству.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Универсальная большая модель (LLM) против специализированной модели (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров колеблется от 70B до 500B, а стоимость одной тренировки часто достигает миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке с использованием повторно используемой базовой модели, обычно основанной на открытых моделях, в сочетании с небольшим количеством высококачественных специализированных данных и технологиями, такими как LoRA, для быстрого создания экспертной модели с конкретными областными знаниями, что значительно снижает затраты на обучение и технический порог.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру агентства, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (улучшенная генерация с учетом запросов) и другие методы. Эта архитектура сохраняет широкие возможности LLM и усиливает профессиональные показатели за счет модулей тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Ценность и границы Crypto AI на уровне моделей
Крипто AI проекты по сути сложно непосредственно улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том, что
Тем не менее, на основе открытых моделей, проект Crypto AI все еще может реализовать расширение ценности за счет тонкой настройки специализированных языковых моделей (SLM) и сочетания с проверяемостью и механизмом стимулов Web3. В качестве «периферийного интерфейсного слоя» цепочки поставок AI, это проявляется в двух основных направлениях:
Анализ классификации типов моделей ИИ и их применимость в блокчейне
Из этого видно, что жизнеспособные направления для моделей класса Crypto AI в основном сосредоточены на легкой настройке малых SLM, подключении и проверке данных в цепочке с использованием архитектуры RAG, а также на локальном развертывании и стимулировании моделей Edge. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих сцен с низкими и средними ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить четкую и неизменяемую запись источников вклада каждой единицы данных и моделей, что значительно повышает надежность данных и прослеживаемость обучения моделей. В то же время, через механизм смарт-контрактов автоматически инициируются выплаты вознаграждений при вызове данных или моделей, превращая действия AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность моделей, участвовать в разработке правил и итерациях через голосование токенами, улучшая структуру децентрализованного управления.
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger — это один из немногих блокчейн-AI проектов на рынке, который сосредоточен на механизмах стимулирования данных и моделей. Он первым предложил концепцию «Payable AI», целью которой является создание справедливой, прозрачной и комбинируемой среды для работы AI, которая стимулирует участников, предоставляющих данные, разработчиков моделей и создателей AI-приложений, чтобы они могли сотрудничать на одной платформе и получать доход на цепочке в зависимости от фактического вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели», а затем до «вызова распределения прибыли», его ключевые модули включают:
С помощью вышеуказанных модулей OpenLedger создала инфраструктуру «экономики агентов», основанную на данных и модели, которая способствует онлайнизации цепочки создания стоимости AI.
А в применении технологий блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для работы с данными и контрактами для моделей ИИ.
В отличие от NEAR, который больше ориентирован на базовый уровень и акцентирует внимание на суверенитете данных и архитектуре «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированной цепочки AI, направленной на стимулирование данных и моделей, стремясь обеспечить возможность разработки и вызова моделей с отслеживанием, комбинированием и устойчивой замкнутой ценностью в цепочке. Это инфраструктура стимулов для моделей в мире Web3, которая сочетает в себе хостинг моделей, выставление счетов за использование и совместимые интерфейсы в цепочке, продвигая путь к реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и техническая архитектура OpenLedger
3.1 Модельный завод, безкодовая модельная фабрика
ModelFactory является платформой для тонкой настройки крупных языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных рамок для тонкой настройки, ModelFactory предлагает чисто графический интерфейс, без необходимости в инструментах командной строки или интеграции API. Пользователи могут выполнять тонкую настройку модели на основе наборов данных, которые были авторизованы и проверены на OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения модели и развертывания, ключевые этапы которого включают:
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, управление данными, настройку модели, оценку и развертывание, а также RAG-трассировку, создавая безопасную, управляемую, интерактивную и устойчивую платформу для интегрированных модельных услуг.
Список возможностей больших языковых моделей, поддерживаемых ModelFactory, приведен ниже:
Хотя комбинация моделей OpenLedger не включает последние высокопроизводительные модели MoE или мультимодальные модели, ее стратегия не устарела, а основана на «приоритете практичности», учитывая реальные ограничения развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как безкодовая инструментальная цепочка, все модели встроены в механизм доказательства вклада, что обеспечивает права участников данных и разработчиков моделей, обладает низким порогом входа, возможностью монетизации и комбинации, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активизация ончейн-активов модели донастройки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет обучать новые задачи, вставляя «низкоранговые матрицы» в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Чтобы использовать их для конкретных задач, требуется тонкая настройка. Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучать только вставленные новые матричные параметры». Она эффективна по параметрам, быстра в обучении и гибка в развертывании, что делает её актуальным методом тонкой настройки для развертывания и комбинирования вызовов моделей Web3.
OpenLoRA - это легковесная система вывода, разработанная OpenLedger, специально предназначенная для развертывания нескольких моделей и совместного использования ресурсов. Ее основной целью является решение распространенных проблем развертывания AI моделей, таких как высокие затраты, низкая повторяемость, расточительство ресурсов GPU и т. д., а также содействие реализации «оплачиваемого AI» (Payable AI).
OpenLoRA системная архитектура ключевых компонентов, основанная на модульном дизайне, охватывающая модельное хранилище, выполнение вывода, маршрутизацию запросов и другие ключевые этапы, обеспечивая эффективные и низкозатратные возможности развертывания и вызова нескольких моделей:
Процесс вывода OpenLoRA относится к техническому уровню «взрослых универсальных» моделей сервисных процессов, как показано ниже: