Pesquisa Profundidade da OpenLedger: Construindo uma economia de agentes inteligente, orientada por dados e modelos combináveis
Uma, Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de cálculo são os três elementos centrais da infraestrutura de IA, e todos são indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria tradicional de IA, o campo da Crypto IA também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir por poder de cálculo". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição da Crypto IA da competição por recursos de base para uma construção de nível médio mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande escala (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com tamanhos de parâmetros variando de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve e reutilizável, geralmente se baseia em modelos de código aberto, combinando uma pequena quantidade de dados especializados de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através de chamadas de arquitetura de Agente, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA e RAG (geração aumentada por recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
Os projetos de Crypto AI, na sua essência, têm dificuldade em melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal
Barreiras técnicas elevadas: a escala de dados, os recursos de computação e as capacidades de engenharia necessárias para treinar um Modelo Base são extremamente grandes, atualmente apenas gigantes tecnológicos como os Estados Unidos e a China possuem essa capacidade.
Limitações do ecossistema de código aberto: embora os modelos básicos mais utilizados estejam disponíveis como código aberto, a verdadeira chave para impulsionar os avanços nos modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para a participação de projetos em blockchain no nível do modelo central.
No entanto, em cima de modelos básicos de código aberto, projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:
Camada de Verificação Confiável: Através do registro na cadeia do caminho de geração do modelo, contribuição de dados e uso, aumenta a rastreabilidade e a capacidade de resistência à manipulação da saída da IA.
Mecanismo de incentivo: Com o uso do Token nativo, para incentivar o upload de dados, chamadas de modelos, execução de agentes, entre outras ações, construindo um ciclo positivo de treino e serviço de modelos.
Análise da classificação dos tipos de modelos de IA e aplicabilidade na blockchain
Como se pode ver, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos concentram-se principalmente na afinação leve de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, bem como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos baixos a medianos, formando um valor diferenciado na "camada de interface" da IA.
A cadeia de blockchain de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado que pode ser mensurado e negociado, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos por meio de votação com tokens, participar da formulação e iteração de regras, aprimorando a arquitetura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Cadeia de IA da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de AI justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações AI a colaborar na mesma plataforma e a obter recompensas on-chain com base nas contribuições reais.
OpenLedger oferece um ciclo fechado completo desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamada de distribuição de lucros", com os seus módulos principais incluindo:
Fábrica de Modelos: Sem necessidade de programação, é possível usar o LoRA para ajustar, treinar e implantar modelos personalizados baseados em LLMs de código aberto;
OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através de registros de chamadas na blockchain;
Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada pela colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é composable, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes" orientada por dados e com modelos combináveis, impulsionando a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza o OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base na OP Stack: baseado na pilha de tecnologia Optimism, suporta alta profundidade e execução de baixas taxas;
Liquidar na rede principal Ethereum: Garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita o desenvolvimento rápido e a expansão baseada em Solidity;
EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a cadeias de IA genéricas como NEAR, que são mais voltadas para a camada base e focam na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias de IA específicas voltadas para incentivos de dados e modelos, empenhando-se em realizar um ciclo de valor rastreável, combinável e sustentável para o desenvolvimento e uso de modelos na cadeia. É uma infraestrutura de incentivo a modelos no mundo Web3, combinando hospedagem de modelos, cobrança por uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".
Três, Componentes principais e arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operável, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados autorizados e revisados concluídos na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento do modelo.
Seleção e configuração de modelo: Suporta principais LLM, configurando hiperparâmetros através da GUI.
Ajuste leve: Motor LoRA / QLoRA embutido, exibe em tempo real o progresso do treinamento.
Avaliação e implantação de modelos: Ferramentas de avaliação integradas, suportam exportação para implantação ou chamadas de compartilhamento ecológico.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG de Rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis grandes módulos, que abrangem autenticação de identidade, permissões de dados, ajuste fino do modelo, avaliação, implantação e rastreamento RAG, criando uma plataforma de serviço de modelo integrada que é segura, controlável, interativa em tempo real e capaz de monetização sustentável.
O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:
Série LLaMA: Ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos de base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e com recursos limitados.
Qwen: Desempenho excecional em tarefas em chinês, com forte capacidade geral, ideal para ser a primeira escolha dos desenvolvedores nacionais.
ChatGLM: Efeito de conversa em chinês destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com uma estrutura clara, fácil de começar a usar e experimentar.
Falcon: Foi um marco de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
BLOOM: Suporte multilíngue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico precoce, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos de MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições da realidade da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração de "prioridade prática".
Model Factory, como uma ferramenta sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com vantagens de baixo custo, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
Para a plataforma: formar a circulação de ativos de modelo e a ecologia de combinação;
Para os utilizadores: podem combinar modelos ou Agentes como se estivessem a chamar uma API.
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo fine-tuned
LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas através da inserção de "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-se o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.
OpenLoRA é um framework de inferência leve desenvolvido pela OpenLedger, projetado especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos GPU na implantação de modelos de IA, promovendo a execução de "IA Pagável" (Payable AI).
Os componentes centrais da arquitetura do sistema OpenLoRA, baseados em design modular, cobrem etapas críticas como armazenamento de modelos, execução de inferência e roteamento de solicitações, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento de Adaptadores LoRA ( Armazenamento de Adaptadores LoRA ): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória, economizando recursos.
Camada de Hospedagem de Modelos e Fusão Dinâmica (Model Hosting & Adapter Merging Layer): Todos os modelos ajustados em conjunto utilizam o modelo base grande, durante a inferência, o adaptador LoRA é fundido dinamicamente, suportando múltiplos adaptadores em inferência conjunta, melhorando o desempenho.
Motor de Inferência (Inference Engine): integra várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV otimizado.
Módulo de Roteamento de Pedidos e Streaming de Tokens (Request Router & Token Streaming): Roteamento dinâmico para o adaptador correto com base no modelo necessário na solicitação, realizando a geração em fluxo a nível de token através da otimização do núcleo.
O processo de inferência do OpenLoRA pertence ao fluxo de serviço de modelo "maduro e genérico" no nível técnico, conforme abaixo:
Carregamento do modelo básico: o sistema pré-carrega como LLaMA 3,
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
OpenLedger: Construir um modelo de economia Web3 AI baseado em dados e combinável
Pesquisa Profundidade da OpenLedger: Construindo uma economia de agentes inteligente, orientada por dados e modelos combináveis
Uma, Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de cálculo são os três elementos centrais da infraestrutura de IA, e todos são indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria tradicional de IA, o campo da Crypto IA também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir por poder de cálculo". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição da Crypto IA da competição por recursos de base para uma construção de nível médio mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande escala (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com tamanhos de parâmetros variando de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve e reutilizável, geralmente se baseia em modelos de código aberto, combinando uma pequena quantidade de dados especializados de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através de chamadas de arquitetura de Agente, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA e RAG (geração aumentada por recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
Os projetos de Crypto AI, na sua essência, têm dificuldade em melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal
No entanto, em cima de modelos básicos de código aberto, projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:
Análise da classificação dos tipos de modelos de IA e aplicabilidade na blockchain
Como se pode ver, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos concentram-se principalmente na afinação leve de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, bem como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos baixos a medianos, formando um valor diferenciado na "camada de interface" da IA.
A cadeia de blockchain de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado que pode ser mensurado e negociado, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos por meio de votação com tokens, participar da formulação e iteração de regras, aprimorando a arquitetura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Cadeia de IA da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de AI justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações AI a colaborar na mesma plataforma e a obter recompensas on-chain com base nas contribuições reais.
OpenLedger oferece um ciclo fechado completo desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamada de distribuição de lucros", com os seus módulos principais incluindo:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes" orientada por dados e com modelos combináveis, impulsionando a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza o OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a cadeias de IA genéricas como NEAR, que são mais voltadas para a camada base e focam na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias de IA específicas voltadas para incentivos de dados e modelos, empenhando-se em realizar um ciclo de valor rastreável, combinável e sustentável para o desenvolvimento e uso de modelos na cadeia. É uma infraestrutura de incentivo a modelos no mundo Web3, combinando hospedagem de modelos, cobrança por uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".
Três, Componentes principais e arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operável, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados autorizados e revisados concluídos na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
A arquitetura do sistema Model Factory inclui seis grandes módulos, que abrangem autenticação de identidade, permissões de dados, ajuste fino do modelo, avaliação, implantação e rastreamento RAG, criando uma plataforma de serviço de modelo integrada que é segura, controlável, interativa em tempo real e capaz de monetização sustentável.
O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos de MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições da realidade da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração de "prioridade prática".
Model Factory, como uma ferramenta sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com vantagens de baixo custo, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo fine-tuned
LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas através da inserção de "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-se o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.
OpenLoRA é um framework de inferência leve desenvolvido pela OpenLedger, projetado especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos GPU na implantação de modelos de IA, promovendo a execução de "IA Pagável" (Payable AI).
Os componentes centrais da arquitetura do sistema OpenLoRA, baseados em design modular, cobrem etapas críticas como armazenamento de modelos, execução de inferência e roteamento de solicitações, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
O processo de inferência do OpenLoRA pertence ao fluxo de serviço de modelo "maduro e genérico" no nível técnico, conforme abaixo: