OpenLedger Profundidad de Investigación: Construcción de una Economía de Agentes Inteligentes Basada en Datos y Modelos Componibles
Uno, Introducción | La transición de la capa de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y todos son indispensables. Al igual que en la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado por proyectos de GPU descentralizados, que enfatizaban en gran medida la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción de una capa media más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje tradicionales a gran escala (LLM) dependen en gran medida de conjuntos de datos masivos y de arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino liviano que permite reutilizar modelos base, normalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos que poseen conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura Agent, el sistema de plugins de enrutamiento dinámico, la conectividad en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la amplia capacidad de cobertura de LLM y mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Barrera técnica demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundacional son extremadamente grandes, y actualmente solo los gigantes tecnológicos de EE. UU. y China tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque los modelos básicos de tendencia se han abierto, la clave para impulsar verdaderamente los avances en los modelos sigue concentrándose en las instituciones de investigación y en los sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena a nivel de modelos centrales es limitado.
Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA al registrar en la cadena el camino de generación del modelo, la contribución de datos y el uso.
Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar comportamientos como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio del modelo.
Análisis de la aplicabilidad de tipos de modelos de IA y blockchain
Como se puede ver, los puntos viables de los proyectos de IA Crypto del tipo modelo se concentran principalmente en la afinación ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la confiabilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invoca un dato o modelo, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, creando un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo a través de votaciones con tokens, participar en la formulación de reglas y en la iteración, mejorando así la estructura de gobernanza descentralizada.
II. Resumen del Proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de IA en blockchain que se centra en mecanismos de incentivos para datos y modelos en el mercado actual. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.
OpenLedger ofrece un ciclo completamente cerrado que va desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", cuyos módulos principales incluyen:
Fábrica de Modelos: Sin necesidad de programación, se puede utilizar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de mil modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y verificadas por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): un mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: Basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajo costo;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
EVM compatible: permite a los desarrolladores desplegar y expandir rápidamente basándose en Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA genéricas como NEAR, que son más de nivel inferior y se centran en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos se realicen en la cadena de manera trazable, combinable y sostenible. Es la infraestructura de incentivos para modelos en el mundo de Web3, combinando alojamiento de modelos, facturación por uso e interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelo como activo".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sin necesidad de código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se conectan automáticamente a la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM populares, configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue de modelos: Herramientas de evaluación integradas, soporta exportación para despliegue o llamadas compartidas en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, lo que facilita la prueba directa de la capacidad de respuesta del modelo.
RAG generación de trazabilidad: Responder con citas de origen, mejorando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelos integrada que es segura, controlable, interactiva en tiempo real y sostenible para la monetización.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
LLaMA serie: la más amplia en ecosistema, comunidad activa y alto rendimiento general, es uno de los modelos base de código abierto más populares en la actualidad.
Mistral: Arquitectura eficiente, excelente rendimiento de inferencia, adecuada para escenarios de despliegue flexible y recursos limitados.
Qwen: Desempeño excepcional en tareas en chino, con una gran capacidad integral, adecuado como la primera opción para desarrolladores nacionales.
ChatGLM: el efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: Se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de comenzar y experimentar rápidamente.
Falcon: Solía ser un estándar de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura lingüística.
GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales del despliegue en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración "prioridad práctica".
Model Factory como herramienta de cadena sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar circulación de activos modelados y un ecología combinada;
Para los usuarios: se pueden combinar los modelos o agentes como si se estuviera llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino.
LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente, que aprende nuevas tareas mediante la inserción de "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, rápido entrenamiento y flexibilidad en el despliegue lo convierten en el método de ajuste fino más adecuado para el despliegue de modelos Web3 y llamadas combinadas.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, impulsando la implementación de "IA Pagable".
OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, cubriendo el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando capacidades de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de adaptadores LoRA (Almacenamiento de adaptadores LoRA): el adaptador LoRA ajustado se aloja en OpenLedger, lo que permite la carga bajo demanda, evitando cargar todos los modelos en la memoria gráfica, ahorrando recursos.
Profundidad del Alojamiento del Modelo y Capa de Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos ajustados comparten un gran modelo base, durante la inferencia se fusionan dinámicamente los adaptadores LoRA, soportando múltiples adaptadores para inferencia conjunta, mejorando el rendimiento.
Motor de inferencia (Inference Engine): integra tecnologías de optimización CUDA como Flash-Attention, Paged-Attention y SGMV.
Módulo de enrutamiento de solicitudes y salida de flujo (Request Router & Token Streaming): Enrutar dinámicamente al adaptador correcto según el modelo requerido en la solicitud, logrando la generación de flujo a nivel de token mediante la optimización del núcleo.
El proceso de inferencia de OpenLoRA pertenece al flujo de servicio de modelo "maduro y general" en el nivel técnico, como se muestra a continuación:
Carga del modelo base: el sistema precarga como LLaMA 3,
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Compartir
Comentar
0/400
airdrop_huntress
· hace14h
El enfoque está en los datos de IA
Ver originalesResponder0
FudVaccinator
· hace14h
La acumulación tiene profundidad
Ver originalesResponder0
SeeYouInFourYears
· hace14h
El futuro es brillante
Ver originalesResponder0
StablecoinArbitrageur
· hace14h
Modelo interesante basado en datos
Ver originalesResponder0
GasFeeDodger
· hace14h
La construcción se está volviendo cada vez más diversa.
OpenLedger: Construir modelos impulsados por datos que sean combinables en la economía de Web3 AI
OpenLedger Profundidad de Investigación: Construcción de una Economía de Agentes Inteligentes Basada en Datos y Modelos Componibles
Uno, Introducción | La transición de la capa de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y todos son indispensables. Al igual que en la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado por proyectos de GPU descentralizados, que enfatizaban en gran medida la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción de una capa media más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje tradicionales a gran escala (LLM) dependen en gran medida de conjuntos de datos masivos y de arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino liviano que permite reutilizar modelos base, normalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos que poseen conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura Agent, el sistema de plugins de enrutamiento dinámico, la conectividad en caliente del módulo LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la amplia capacidad de cobertura de LLM y mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se manifiesta en dos direcciones centrales:
Análisis de la aplicabilidad de tipos de modelos de IA y blockchain
Como se puede ver, los puntos viables de los proyectos de IA Crypto del tipo modelo se concentran principalmente en la afinación ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local de modelos Edge y su incentivación. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la confiabilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invoca un dato o modelo, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, creando un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo a través de votaciones con tokens, participar en la formulación de reglas y en la iteración, mejorando así la estructura de gobernanza descentralizada.
II. Resumen del Proyecto | La visión de la cadena de OpenLedger AI
OpenLedger es uno de los pocos proyectos de IA en blockchain que se centra en mecanismos de incentivos para datos y modelos en el mercado actual. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.
OpenLedger ofrece un ciclo completamente cerrado que va desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", cuyos módulos principales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA genéricas como NEAR, que son más de nivel inferior y se centran en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos se realicen en la cadena de manera trazable, combinable y sostenible. Es la infraestructura de incentivos para modelos en el mundo de Web3, combinando alojamiento de modelos, facturación por uso e interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelo como activo".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sin necesidad de código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelos integrada que es segura, controlable, interactiva en tiempo real y sostenible para la monetización.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales del despliegue en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración "prioridad práctica".
Model Factory como herramienta de cadena sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino.
LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente, que aprende nuevas tareas mediante la inserción de "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, rápido entrenamiento y flexibilidad en el despliegue lo convierten en el método de ajuste fino más adecuado para el despliegue de modelos Web3 y llamadas combinadas.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, impulsando la implementación de "IA Pagable".
OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, cubriendo el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando capacidades de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
El proceso de inferencia de OpenLoRA pertenece al flujo de servicio de modelo "maduro y general" en el nivel técnico, como se muestra a continuación: