OpenLedger: будуємо комбінаційні моделі, керовані даними, для економіки Web3 AI

OpenLedger Глибина досліджень: побудова економіки агентів, керованої даними, з модельною комбінацією

Один. Вступ | Модельний рівень Crypto AI.

Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, без яких не обійтися. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок на деякий час контролювався децентралізованими GPU проектами, які загалом підкреслювали логіку грубого зростання «потужності обчислень». Проте з початком 2025 року увага галузі поступово перемістилася на рівень моделей та даних, що стало знаковим переходом Crypto AI від конкуренції за базові ресурси до більш стійкого середнього будівництва з застосунковою вартістю.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Універсальна велика модель (LLM) vs Спеціалізована модель (SLM)

Традиційні великі мовні моделі (LLM) сильно залежать від великих наборів даних та складних розподілених архітектур, масштаб параметрів часто становить 70B–500B, а вартість однієї тренування часто досягає мільйонів доларів. Натомість SLM (Спеціалізована мовна модель) як легка парадигма тонкого налаштування повторного використання базової моделі зазвичай ґрунтується на відкритих моделях, поєднуючи невелику кількість якісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі, що мають знання в певній галузі та значно знижують витрати на навчання та технічні бар'єри.

Варто зазначити, що SLM не буде інтегрований у ваги LLM, а буде співпрацювати з LLM через виклики архітектури Agent, динамічну маршрутизацію через систему плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку охоплювальність LLM і одночасно покращує спеціалізовану продуктивність за рахунок модулів тонкого налаштування, утворюючи високо гнучку комбінаційну інтелектуальну систему.

Crypto AI в модульному шарі цінність та межі

Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому, що

  • Технічний бар'єр занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні моделі з відкритим кодом вже випущені, справжній прорив моделей все ще зосереджений на науково-дослідних установах та закритих інженерних системах, а участь проектів на ланцюзі в ядерному шарі моделей є обмеженою.

Однак, на основі відкритих моделей, проекти Crypto AI все ще можуть реалізувати розширення вартості через тонку налаштування спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами заохочення Web3. Як «периферійний інтерфейс» в індустрії AI, він втілюється в двох основних напрямках:

  • Достовірний верифікаційний рівень: шляхом запису на ланцюгу шляхів генерації моделей, внесків даних та їх використання, підвищується відстежуваність та стійкість до підробок виходу AI.
  • Механізм стимулювання: за допомогою рідного токена для стимулювання поведінки, такої як завантаження даних, виклик моделі, виконання агентом, створення позитивного циклу навчання моделі та обслуговування.

Аналіз типів AI моделей та їх застосування в блокчейні

З цього видно, що життєздатні точки застосування проектів типу Crypto AI зосереджені в основному на легкій настройці малих SLM, підключенні та верифікації даних на блокчейні за архітектурою RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих сцен сценаріїв з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних і моделей може забезпечити чітке, незмінне записування джерел внесків для кожної даних і моделі, значно підвищуючи надійність даних та відстежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, автоматично активується розподіл винагороди під час виклику даних або моделей, перетворюючи поведінку AI на вимірювальну, торгівельну токенізовану цінність, створюючи стійку систему стимулів. Крім того, користувачі громади можуть також через токени голосувати для оцінки ефективності моделей, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану структуру управління.

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним із небагатьох блокчейн-AI проектів на ринку, який фокусується на механізмах стимулювання даних і моделей. Він вперше запропонував концепцію «Payable AI», що має на меті створення справедливого, прозорого та комбінованого середовища для роботи з AI, щоб стимулювати учасників, які надають дані, розробників моделей та будівельників AI-додатків співпрацювати на одній платформі та отримувати доходи на ланцюгу відповідно до реального внеску.

OpenLedger надає повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей», а потім до «виклику розподілу прибутку», його основні модулі включають:

  • Модельна фабрика: без програмування, ви можете використовувати LoRA для тонкого налаштування, навчання та розгортання індивідуальних моделей на основі відкритого LLM;
  • OpenLoRA: підтримка співіснування тисячі моделей, динамічна завантаження за потребою, значне зниження витрат на розгортання;
  • PoA (Доказательство атрибуції): через виклики в ланцюгу реалізувати вимірювання внеску та розподіл винагород;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, які будуються та верифікуються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбіноване, викликане, платіжне ринкове середовище моделей на блокчейні.

За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних і модульна, що сприяє онлайнізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн, OpenLedger на базі OP Stack + EigenDA створила високо продуктивне, низько вартісне, перевірене середовище для виконання даних і контрактів для AI моделей.

  • Побудовано на OP Stack: на основі технологічного стеку Optimism, що підтримує високу пропускну спроможність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: забезпечення безпеки транзакцій та цілісності активів;
  • EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA забезпечує підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.

В порівнянні з такими більш базовими проєктами, як NEAR, які акцентують на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого AI-ланцюга, орієнтованого на дані та моделі, прагнучи реалізувати відстежувані, комбіновані та стійкі цикли вартості для розробки та виклику моделей на ланцюгу. Це інфраструктура стимулювання моделей у світі Web3, яка поєднує хостинг моделей, облік використання та комбіновані інтерфейси на ланцюгу, сприяючи реалізації шляху «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодова модельна фабрика

ModelFactory є великою платформою для налаштування мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків налаштування, ModelFactory пропонує чистий графічний інтерфейс для роботи, без необхідності у командному рядку або інтеграції API. Користувачі можуть налаштовувати моделі на основі даних, які пройшли авторизацію та перевірку на OpenLedger. Це реалізує інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач надсилає запит на дані, постачальник перевіряє та схвалює, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір і налаштування моделі: підтримка основних LLM, налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що в реальному часі демонструє прогрес навчання.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного використання.
  • Інтерфейс взаємодії для верифікації: надає чат-інтерфейс, що полегшує безпосереднє тестування здібностей моделі до відповіді на запитання.
  • Генерація RAG для відстеження: Відповіді з посиланнями на джерела, що підвищують довіру та можливість аудиту.

Системна архітектура Model Factory містить шість основних модулів, які охоплюють ідентифікацію, управління даними, налаштування моделей, оцінку, розгортання та RAG трасування, створюючи інтегровану платформу модельних послуг з безпечним контролем, реальним часом взаємодії та можливістю стійкого монетизації.

Модельна фабрика наразі підтримує такі можливості великих мовних моделей:

  • Серія LLaMA: найбільша екосистема, активне співтовариство, сильна загальна продуктивність, є однією з найпоширеніших відкритих основних моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: Китайські завдання виконуються відмінно, загальні можливості сильні, підходить для вибору вітчизняних розробників.
  • ChatGLM: видатні результати в китайських розмовах, підходить для нішевих служб підтримки та локалізованих сценаріїв.
  • Deepseek: Відзначається перевагою в генерації коду та математичному міркуванні, підходить для інструментів допомоги в інтелектуальній розробці.
  • Gemma: легка модель, розроблена компанією Google, з чіткою структурою, що дозволяє швидко розпочати роботу та експериментувати.
  • Falcon: колись був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти знизилася.
  • BLOOM: Має сильну підтримку багатомовності, але продуктивність в інтерпретації слабша, підходить для досліджень, що охоплюють мови.
  • GPT-2: класична рання модель, що підходить лише для навчальних та верифікаційних цілей, не рекомендується для реального розгортання.

Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а є «практичною» конфігурацією, що ґрунтується на реальних обмеженнях розгортання в мережі (витрати на виведення, адаптація RAG, сумісність LoRA, середовище EVM).

Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних та розробників моделей, має низький поріг входу, можливість монетизації та комбінування, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: надання повного шляху до інкубації, розподілу та доходу моделі;
  • Для платформи: формування моделі обігу активів та екосистеми комбінацій;
  • Для користувачів: моделі або агенти можна комбінувати, як виклик API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, активізація он-chain активів моделі тонкої настройки

LoRA (Low-Rank Adaptation) – це ефективний метод тонкого налаштування параметрів, який навчає нові завдання шляхом вставки «низькорангових матриць» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, потрібно провести тонке налаштування. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, натомість навчати нові матриці параметрів, що вставляються». Її параметри є ефективними, навчання відбувається швидко, а розгортання є гнучким, що робить її основним методом тонкого налаштування, найкращим для розгортання моделей Web3 та комбінованих викликів.

OpenLoRA - це легка інфраструктура для інференції, розроблена OpenLedger, яка спеціально призначена для розгортання кількох моделей та спільного використання ресурсів. Її основна мета - вирішити поширені проблеми, пов'язані з високими витратами, низькою повторною використанням та марнотратством ресурсів GPU під час розгортання AI моделей, сприяючи реалізації "можливого AI" (Payable AI).

Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють ключові етапи, такі як зберігання моделей, виконання висновків, маршрутизація запитів тощо, що забезпечує ефективні та маловитратні можливості для розгортання та виклику кількох моделей.

  • LoRA адаптер модуль зберігання (LoRA адаптери зберігання): Налаштований LoRA адаптер зберігається на OpenLedger, що дозволяє завантажувати за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, що економить ресурси.
  • Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з підстроюванням використовують базову велику модель, під час інференсу динамічно об'єднуються адаптери LoRA, підтримується спільний інференс кількох адаптерів, що підвищує продуктивність.
  • Інференційний механізм (Inference Engine): інтегрує декілька технологій оптимізації CUDA, такі як Flash-Attention, Paged-Attention, SGMV оптимізація тощо.
  • Запит маршрутизатор та модуль потокового виводу (Request Router & Token Streaming): Динамічно маршрутизувати до правильного адаптера на основі необхідної моделі у запиті, реалізуючи потокову генерацію на рівні токенів через оптимізацію ядра.

Процес інферування OpenLoRA належить до технологічного рівня «зрілі загальні» модульних сервісних процесів, як зазначено нижче:

  • Завантаження базової моделі: система попередньо завантажує такі, як LLaMA 3,
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
airdrop_huntressvip
· 16год тому
Основна увага на даних ШІ
Переглянути оригіналвідповісти на0
FudVaccinatorvip
· 16год тому
堆料 має Глибина
Переглянути оригіналвідповісти на0
SeeYouInFourYearsvip
· 16год тому
Майбутнє світле.
Переглянути оригіналвідповісти на0
StablecoinArbitrageurvip
· 16год тому
Цікава модель, що базується на даних
Переглянути оригіналвідповісти на0
GasFeeDodgervip
· 16год тому
Будує все більше різноманітності
Переглянути оригіналвідповісти на0
  • Закріпити