OpenLedger Depth Recherche : Construire une économie d'agents intelligents axée sur les données et modélisable
I. Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, aucun d'entre eux ne peut être omis. Comme pour l'évolution de l'infrastructure dans l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des étapes similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive du "拼算力". Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant une transition de la compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur appliquée.
Modèle universel (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme d'ajustement léger basé sur un modèle fondamental réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, tout en réduisant considérablement le coût de formation et la barrière technique.
Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels à l'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA en mode plug-and-play, et le RAG (génération augmentée par recherche). Cette architecture préserve la large couverture du LLM tout en renforçant les performances spécialisées grâce à des modules de réglage, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale est que
Barrière technique trop élevée : L'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et seuls des géants technologiques comme les États-Unis et la Chine possèdent actuellement ces capacités.
Limites de l'écosystème open source : Bien que les principaux modèles de base soient open source, la véritable clé pour faire progresser les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles fondamentaux est limité.
Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Couche de vérification de confiance : enregistrant sur la chaîne le chemin de génération du modèle, les contributions de données et les cas d'utilisation, cela renforce la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service des modèles.
Analyse de la classification des types de modèles d'IA et de l'applicabilité à la blockchain
Il en ressort que les points d'ancrage viables des projets de type Crypto AI basés sur des modèles se concentrent principalement sur l'optimisation légère des SLM de petite taille, l'intégration et la validation des données en chaîne via l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de token, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la couche « interface » de l'IA.
Blockchain AI chain basée sur des données et des modèles, capable d'enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle sur la chaîne, améliorant considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant le comportement de l'IA en valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et composable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus on-chain en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » en passant par « l'appel de partage des bénéfices », dont les modules principaux comprennent :
Usine de modèles : aucun codage requis, vous pouvez utiliser le LLM open-source pour l'ajustement fin LoRA et déployer des modèles personnalisés.
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses via des appels en chaîne.
Datanets : Réseau de données structurées destiné à des scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles on-chain modulables, appelables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur les données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.
Construire sur OP Stack : Basé sur la pile technologique d'Optimism, prend en charge un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA fournit un support de disponibilité des données : réduction significative des coûts de stockage, garantie de la vérifiabilité des données.
Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur le niveau inférieur et mettent l'accent sur la souveraineté des données ainsi que sur l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées orientées vers l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, modulables et durables sur la chaîne. C'est une infrastructure d'incitation des modèles dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces modulables sur la chaîne, et favorisant la réalisation de « modèle en tant qu'actif ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'Usine, pas besoin de code pour l'usine de modèles
ModelFactory est une plateforme de réglage fin de grands modèles de langage (LLM) dans l'écosystème OpenLedger. Contrairement aux frameworks de réglage fin traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans avoir besoin d'outils en ligne de commande ou d'intégration d'API. Les utilisateurs peuvent affiner les modèles sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
Sélection et configuration du modèle : Prend en charge les LLM grand public, configuration des hyperparamètres via l'interface graphique.
Ajustement léger : Moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement du modèle : Outils d'évaluation intégrés, supportant l'exportation du déploiement ou l'appel partagé de l'écosystème.
Interface de vérification interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
RAG génération de traçabilité : Répondre avec des références de provenance, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de services de modèle intégrée, sécurisée et contrôlable, avec des interactions en temps réel et un monétisation durable.
Le tableau ci-dessous résume les capacités des grands modèles linguistiques actuellement pris en charge par ModelFactory :
Série LLaMA : l'écosystème le plus étendu, une communauté active et de fortes performances générales, c'est l'un des modèles de base open source les plus populaires actuellement.
Mistral : architecture efficace, performances d'inférence excellentes, adaptée aux scénarios flexibles et aux ressources limitées.
Qwen : Performance exceptionnelle dans les tâches en chinois, compétences globales fortes, idéal pour les développeurs nationaux.
ChatGLM : Les performances de conversation en chinois sont remarquables, adaptées aux services clients spécialisés et aux scénarios de localisation.
Deepseek : excelle en génération de code et en raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Autrefois étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : un support multilingue fort, mais des performances d'inférence plus faibles, adapté à la recherche sur la couverture linguistique.
GPT-2 : modèle classique précoce, adapté uniquement à des fins pédagogiques et de validation, non recommandé pour un déploiement réel.
Bien que le portefeuille de modèles d'OpenLedger n'inclut pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration "priorité à l'utilité" basée sur des contraintes réalistes de déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme vous le feriez avec une API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts de formation et les besoins en stockage. Les grands modèles de langage traditionnels ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un réglage est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. » Son efficacité en matière de paramètres, sa rapidité d'entraînement et sa flexibilité de déploiement en font la méthode de réglage la plus appropriée pour le déploiement et l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement multi-modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU rencontrés dans le déploiement des modèles d'IA, tout en promouvant l'exécution de l'« IA payante » (Payable AI).
OpenLoRA architecture composants principaux, basé sur une conception modulaire, couvre le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel de plusieurs modèles de manière efficace et à faible coût :
Module de stockage LoRA Adapter (LoRA Adapters Storage) : les LoRA adapters affinés sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
Hébergement de modèle et couche de fusion dynamique (Model Hosting & Adapter Merging Layer) : Tous les modèles ajustés partagent le grand modèle de base, lors de l'inférence, les adaptateurs LoRA sont fusionnés dynamiquement, prenant en charge l'inférence conjointe de plusieurs adaptateurs, améliorant ainsi les performances.
Moteur d'inférence (Inference Engine) : intègre plusieurs techniques d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
Routeur de requêtes et module de sortie en streaming (Request Router & Token Streaming) : Routage dynamique vers le bon adaptateur selon le modèle requis dans la requête, réalisation de la génération en streaming au niveau des tokens grâce à l'optimisation du noyau.
Le processus d'inférence d'OpenLoRA appartient à un processus de service de modèle "mature et général" sur le plan technique, comme suit :
Chargement du modèle de base : le système précharge des modèles tels que LLaMA 3,
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
5
Partager
Commentaire
0/400
airdrop_huntress
· Il y a 3h
L'accent est mis sur les données AI
Voir l'originalRépondre0
FudVaccinator
· Il y a 4h
L'accumulation a de la profondeur
Voir l'originalRépondre0
SeeYouInFourYears
· Il y a 4h
L'avenir est prometteur
Voir l'originalRépondre0
StablecoinArbitrageur
· Il y a 4h
Modèle basé sur des données intéressant
Voir l'originalRépondre0
GasFeeDodger
· Il y a 4h
La construction devient de plus en plus diversifiée.
OpenLedger : Construire un modèle économique Web3 AI combinable et axé sur les données.
OpenLedger Depth Recherche : Construire une économie d'agents intelligents axée sur les données et modélisable
I. Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, aucun d'entre eux ne peut être omis. Comme pour l'évolution de l'infrastructure dans l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des étapes similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive du "拼算力". Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant une transition de la compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur appliquée.
Modèle universel (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme d'ajustement léger basé sur un modèle fondamental réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, tout en réduisant considérablement le coût de formation et la barrière technique.
Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels à l'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA en mode plug-and-play, et le RAG (génération augmentée par recherche). Cette architecture préserve la large couverture du LLM tout en renforçant les performances spécialisées grâce à des modules de réglage, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale est que
Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Analyse de la classification des types de modèles d'IA et de l'applicabilité à la blockchain
Il en ressort que les points d'ancrage viables des projets de type Crypto AI basés sur des modèles se concentrent principalement sur l'optimisation légère des SLM de petite taille, l'intégration et la validation des données en chaîne via l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de token, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la couche « interface » de l'IA.
Blockchain AI chain basée sur des données et des modèles, capable d'enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle sur la chaîne, améliorant considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant le comportement de l'IA en valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et composable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus on-chain en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » en passant par « l'appel de partage des bénéfices », dont les modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur les données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur le niveau inférieur et mettent l'accent sur la souveraineté des données ainsi que sur l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées orientées vers l'incitation des données et des modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, modulables et durables sur la chaîne. C'est une infrastructure d'incitation des modèles dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces modulables sur la chaîne, et favorisant la réalisation de « modèle en tant qu'actif ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'Usine, pas besoin de code pour l'usine de modèles
ModelFactory est une plateforme de réglage fin de grands modèles de langage (LLM) dans l'écosystème OpenLedger. Contrairement aux frameworks de réglage fin traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans avoir besoin d'outils en ligne de commande ou d'intégration d'API. Les utilisateurs peuvent affiner les modèles sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de services de modèle intégrée, sécurisée et contrôlable, avec des interactions en temps réel et un monétisation durable.
Le tableau ci-dessous résume les capacités des grands modèles linguistiques actuellement pris en charge par ModelFactory :
Bien que le portefeuille de modèles d'OpenLedger n'inclut pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration "priorité à l'utilité" basée sur des contraintes réalistes de déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui apprend de nouvelles tâches en insérant des « matrices de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts de formation et les besoins en stockage. Les grands modèles de langage traditionnels ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un réglage est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. » Son efficacité en matière de paramètres, sa rapidité d'entraînement et sa flexibilité de déploiement en font la méthode de réglage la plus appropriée pour le déploiement et l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement multi-modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU rencontrés dans le déploiement des modèles d'IA, tout en promouvant l'exécution de l'« IA payante » (Payable AI).
OpenLoRA architecture composants principaux, basé sur une conception modulaire, couvre le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel de plusieurs modèles de manière efficace et à faible coût :
Le processus d'inférence d'OpenLoRA appartient à un processus de service de modèle "mature et général" sur le plan technique, comme suit :