OpenLedger Depth Rapport de recherche : construire une économie d'agents intelligents axée sur les données et modélisable avec OP Stack + EigenDA comme base.
Une introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), chacun étant indispensable. Tout comme l'évolution de l'infrastructure dans l'industrie AI traditionnelle, le domaine Crypto AI a également traversé des phases similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés ( certaines plateformes de puissance de calcul décentralisées, soulignant généralement la logique de croissance extensive du «拼算力». Cependant, à partir de 2025, l'attention de l'industrie a progressivement changé pour se concentrer sur les niveaux de modèles et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et à valeur d'application.
![OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, pilotée par les données et modulable, sur la base d'OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
)# Modèle général (LLM) vs modèle spécialisé (SLM)
Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un seul entraînement atteignant souvent plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-ajustement léger basé sur un modèle fondamental réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral et DeepSeek, combinant une petite quantité de données spécialisées de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances dans des domaines spécifiques, tout en réduisant considérablement les coûts d'entraînement et les barrières techniques.
Il est à noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et RAG (génération augmentée par la récupération). Cette architecture conserve la large couverture des LLM tout en améliorant les performances professionnelles grâce à des modules de fine-tuning, formant ainsi un système intelligent combinatoire hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technologique trop élevée : l'échelle de données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et actuellement, seuls des géants technologiques comme les États-Unis (OpenAI, etc.) et la Chine (DeepSeek, etc.) disposent des capacités adéquates.
Limites de l'écosystème open source : Bien que des modèles de base mainstream tels que LLaMA et Mixtral soient open source, la clé pour faire progresser véritablement les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles centraux est limité.
Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore étendre leur valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie AI, cela se manifeste dans deux directions clés :
Couche de validation fiable : enregistre les chemins de génération de modèles, les contributions de données et leur utilisation sur la chaîne, renforçant ainsi la traçabilité et l'immunité à la falsification des sorties de l'IA.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter les comportements tels que le téléchargement de données, l'appel de modèles et l'exécution d'agents, afin de construire un cycle positif de formation et de service des modèles.
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points d'application viables des projets Crypto AI de type modèle se concentrent principalement sur l'ajustement léger des SLM de petite taille, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des jetons, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain permet d'enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrat intelligent, des récompenses sont automatiquement distribuées lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des jetons, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
![OpenLedger Depth Report : Construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, axée sur les données et modélablement combinable]###https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
) Deux, Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel axés sur les mécanismes d'incitation des données et des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » et à « l'appel des parts de bénéfice », dont les modules clés comprennent :
Modèle d'usine : Pas besoin de programmation, vous pouvez utiliser LoRA pour le fine-tuning et le déploiement de modèles personnalisés basés sur LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : Mesure de contribution et distribution de récompenses via des enregistrements d'appels sur la chaîne.
Datanets : un réseau de données structurées orienté vers des scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne combinables, appelables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique d'agents intelligents » basée sur les données et modulable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Construit sur OP Stack : basé sur la pile technologique Optimism, prenant en charge un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity.
EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à des chaînes AI générales comme NEAR, qui sont plus axées sur le bas niveau et mettent l'accent sur la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées orientées vers les incitations de données et de modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est l'infrastructure d'incitation des modèles dans le monde Web3, combinant des plateformes d'hébergement de modèles de type plateforme d'hébergement, des facturations d'utilisation de type plateforme de paiement et des interfaces combinables sur la chaîne de type plateforme de services d'infrastructure blockchain, promouvant le chemin de réalisation de « modèle est un actif ».
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modulable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
) Trois, les composants principaux et l'architecture technique de OpenLedger
3.1 Usine de Modèles, usine de modèles sans code
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory propose une interface entièrement graphique, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner le modèle sur la base des ensembles de données autorisés et vérifiés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les étapes clés comprennent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
Sélection et configuration du modèle : Prend en charge les LLM principaux (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
Ajustement léger : Moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement du modèle : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel de partage écologique.
Interface de validation interactive : Fournit une interface de type chat, facilitant les tests directs des capacités de question-réponse du modèle.
Génération de traçabilité RAG : réponses avec des références citées, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, avec des interactions en temps réel et un monétisation durable.
![OpenLedger Depth Rapport d'étude : construire une économie d'agents intelligente, axée sur les données et modélisable, basée sur OP Stack + EigenDA]###https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
LLaMA série : écosystème le plus large, communauté active, performance générale forte, c'est l'un des modèles de base open source les plus répandus actuellement.
Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios flexibles et aux ressources limitées.
Qwen : Produit par Alibaba, excellent en tâches en chinois, compétences globales fortes, idéal pour les développeurs nationaux.
ChatGLM : les conversations en chinois sont remarquables, adaptées aux services clients spécialisés et aux scénarios de localisation.
Deepseek : excelle en génération de code et en raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Anciennement un étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : Prise en charge multilingue forte, mais performances d'inférence faibles, adapté aux recherches sur la couverture linguistique.
GPT-2 : un modèle classique précoce, uniquement adapté à des fins pédagogiques et de validation, son utilisation en déploiement réel n'est pas recommandée.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la praticité » basée sur les contraintes réelles de déploiement on-chain (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible seuil, de monétisation et de modularité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.
![OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, axée sur les données et modulable, sur la base d'OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-f49cfa5ea73fc0018250d04193b34b60.webp(
)# 3.2 OpenLoRA, la tokenisation des actifs en chaîne du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui apprend de nouvelles tâches en insérant des « matrices de rang faible » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie centrale de LoRA est : « congeler les paramètres du grand modèle d'origine et ne former que les nouvelles matrices de paramètres insérées. » Ses paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu pour le déploiement de plusieurs modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU dans le déploiement des modèles d'IA, en promouvant l'exécution de l'« IA payante » (Payable AI).
Composant central de l'architecture système OpenLoRA, basé sur le modèle
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
23 J'aime
Récompense
23
7
Partager
Commentaire
0/400
WhaleWatcher
· 07-23 16:26
Je ne comprends vraiment pas cette pile d'architectures AI.
Voir l'originalRépondre0
OldLeekConfession
· 07-22 03:58
Le cycle de la spéculation est de retour.
Voir l'originalRépondre0
WenMoon
· 07-21 08:59
S'appuyer uniquement sur la puissance de calcul, c'est un peu trop terre à terre, non ?
Voir l'originalRépondre0
AltcoinMarathoner
· 07-21 08:52
vibes du mile 23 rn... cet espace passe du calcul brut à la couche de modèle, tout comme atteindre ce point idéal dans un marathon où la stratégie > la force brute
Voir l'originalRépondre0
DegenWhisperer
· 07-21 08:49
La concurrence de base est fausse.
Voir l'originalRépondre0
BlockchainFoodie
· 07-21 08:40
mmm cette pile est comme la recette parfaite... les données comme les ingrédients, les modèles comme la technique de cuisson, le calcul comme la source de chaleur... *chef's kiss*
OpenLedger construit un écosystème AI off-chain : OP Stack + EigenDA comme base pour alimenter une économie d'agents intelligents combinables.
OpenLedger Depth Rapport de recherche : construire une économie d'agents intelligents axée sur les données et modélisable avec OP Stack + EigenDA comme base.
Une introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), chacun étant indispensable. Tout comme l'évolution de l'infrastructure dans l'industrie AI traditionnelle, le domaine Crypto AI a également traversé des phases similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés ( certaines plateformes de puissance de calcul décentralisées, soulignant généralement la logique de croissance extensive du «拼算力». Cependant, à partir de 2025, l'attention de l'industrie a progressivement changé pour se concentrer sur les niveaux de modèles et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et à valeur d'application.
![OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, pilotée par les données et modulable, sur la base d'OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
)# Modèle général (LLM) vs modèle spécialisé (SLM)
Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un seul entraînement atteignant souvent plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de micro-ajustement léger basé sur un modèle fondamental réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral et DeepSeek, combinant une petite quantité de données spécialisées de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances dans des domaines spécifiques, tout en réduisant considérablement les coûts d'entraînement et les barrières techniques.
Il est à noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et RAG (génération augmentée par la récupération). Cette architecture conserve la large couverture des LLM tout en améliorant les performances professionnelles grâce à des modules de fine-tuning, formant ainsi un système intelligent combinatoire hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore étendre leur valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie AI, cela se manifeste dans deux directions clés :
Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain
Il en ressort que les points d'application viables des projets Crypto AI de type modèle se concentrent principalement sur l'ajustement léger des SLM de petite taille, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des jetons, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain permet d'enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrat intelligent, des récompenses sont automatiquement distribuées lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des jetons, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
![OpenLedger Depth Report : Construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, axée sur les données et modélablement combinable]###https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
) Deux, Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel axés sur les mécanismes d'incitation des données et des modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » et à « l'appel des parts de bénéfice », dont les modules clés comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique d'agents intelligents » basée sur les données et modulable, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes AI générales comme NEAR, qui sont plus axées sur le bas niveau et mettent l'accent sur la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées orientées vers les incitations de données et de modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est l'infrastructure d'incitation des modèles dans le monde Web3, combinant des plateformes d'hébergement de modèles de type plateforme d'hébergement, des facturations d'utilisation de type plateforme de paiement et des interfaces combinables sur la chaîne de type plateforme de services d'infrastructure blockchain, promouvant le chemin de réalisation de « modèle est un actif ».
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modulable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
) Trois, les composants principaux et l'architecture technique de OpenLedger
3.1 Usine de Modèles, usine de modèles sans code
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory propose une interface entièrement graphique, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner le modèle sur la base des ensembles de données autorisés et vérifiés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les étapes clés comprennent :
L'architecture du système Model Factory comprend six modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, avec des interactions en temps réel et un monétisation durable.
![OpenLedger Depth Rapport d'étude : construire une économie d'agents intelligente, axée sur les données et modélisable, basée sur OP Stack + EigenDA]###https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la praticité » basée sur les contraintes réelles de déploiement on-chain (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible seuil, de monétisation et de modularité, par rapport aux outils de développement de modèles traditionnels :
![OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, axée sur les données et modulable, sur la base d'OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-f49cfa5ea73fc0018250d04193b34b60.webp(
)# 3.2 OpenLoRA, la tokenisation des actifs en chaîne du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui apprend de nouvelles tâches en insérant des « matrices de rang faible » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie centrale de LoRA est : « congeler les paramètres du grand modèle d'origine et ne former que les nouvelles matrices de paramètres insérées. » Ses paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement et à l'appel combiné de modèles Web3.
OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu pour le déploiement de plusieurs modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage des ressources GPU dans le déploiement des modèles d'IA, en promouvant l'exécution de l'« IA payante » (Payable AI).
Composant central de l'architecture système OpenLoRA, basé sur le modèle