Um, Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de cálculo são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de cálculo), todos essenciais. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder de cálculo". No entanto, ao entrar em 2025, a atenção da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de médio nível com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem grandes (LLM) tradicionais dependem fortemente de conjuntos de dados em grande escala e de arquiteturas distribuídas complexas, com tamanhos de parâmetro que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo básico reutilizável, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente o custo de treinamento e a barreira técnica.
Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através de chamadas da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA, RAG (Geração Aumentada por Recuperação) e outras formas. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
Os projetos de Crypto AI, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é
Barreiras técnicas muito elevadas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes; atualmente, apenas gigantes tecnológicos como os EUA e a China possuem essa capacidade.
Limitações do ecossistema de código aberto: embora os principais modelos de base tenham sido tornados públicos, a verdadeira chave para impulsionar os avanços nos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para a participação de projetos na blockchain no nível dos modelos centrais.
No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de Modelos de Linguagem Especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:
Camada de Verificação Confiável: Registra no blockchain o caminho de geração do modelo, as contribuições de dados e a utilização, aumentando a rastreabilidade e a resistência à manipulação das saídas de IA.
Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelo, execução de agentes, entre outros comportamentos, construindo um ciclo positivo de treinamento e serviço de modelo.
Análise da classificação dos tipos de modelos de IA e da aplicabilidade da blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, bem como na implementação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médio a baixo, formando um valor diferenciado na "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são chamados, transformando o comportamento da IA em um valor tokenizado, mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos através de votação com tokens, participar da formulação e iteração de regras, aprimorando a arquitetura de governança descentralizada.
II. Visão geral do projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele introduziu o conceito de "Payable AI" com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter ganhos em cadeia com base nas suas contribuições reais.
A OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até o "desdobramento de modelos" e, em seguida, "chamada de repartição de lucros", cujos módulos principais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino e treinamento de modelos personalizados com base em LLM de código aberto;
OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através de registros de chamadas na cadeia;
Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e verificadas por colaboração comunitária;
Plataforma de Propostas de Modelo (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes inteligente" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base na OP Stack: baseado na pilha tecnológica da Optimism, suporta alta taxa de transferência e execução de baixo custo;
Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita aos desenvolvedores implantar e expandir rapidamente com base em Solidity;
EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a cadeias de IA genéricas como NEAR, que são mais orientadas para a camada base e enfatizam a soberania dos dados com a arquitetura "AI Agents on BOS", a OpenLedger foca mais na construção de cadeias dedicadas à IA voltadas para a incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos numa cadeia rastreável, combinável e sustentável em termos de valor. É a infraestrutura de incentivos para modelos no mundo Web3, combinando hospedagem de modelos ao estilo HuggingFace, cobrança de uso ao estilo Stripe e interfaces combináveis na cadeia ao estilo Infura, promovendo o caminho para a realização de "modelo como ativo".
Três, Componentes principais e arquitetura técnica da OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base nos conjuntos de dados que foram autorizados e revisados na OpenLedger. Isso implementa um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento do modelo.
Seleção e configuração de modelo: Suporta LLMs principais, configurações de hiperparâmetros através da GUI.
Ajuste leve: Motor LoRA / QLoRA embutido, mostra o progresso do treino em tempo real.
Avaliação e Implementação de Modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamadas de compartilhamento ecológico.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de perguntas e respostas do modelo.
Geração de RAG com rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, com interação em tempo real e monetização sustentável.
A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Série LLaMA: o ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos básicos de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexível e recursos limitados.
Qwen: Capacidade abrangente, adequado como a primeira escolha para desenvolvedores nacionais.
ChatGLM: Efeito de conversa em chinês proeminente, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com uma estrutura clara, fácil de começar rapidamente e de experimentar.
Falcon: Já foi um padrão de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
BLOOM: Suporte multilíngue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico anterior, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam numa configuração "prática em primeiro lugar".
Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens como baixo custo de entrada, capacidade de monetização e combinabilidade, em comparação com ferramentas de desenvolvimento de modelos tradicionais:
Para os desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita dos modelos;
Para a plataforma: formar a circulação de ativos de modelo e ecossistema de combinação;
Para os utilizadores: é possível combinar modelos ou Agentes da mesma forma que se chama uma API.
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo de fine-tuning
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implementação é flexível, sendo atualmente o método de ajuste fino mais adequado para a implementação e chamada combinada de modelos Web3.
OpenLoRA é uma estrutura de inferência leve, construída pela OpenLedger, projetada especificamente para o despliegue de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns no despliegue de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a implementação da "IA Pagável".
Componentes principais da arquitetura do sistema OpenLoRA, baseados em design modular, cobrem armazenamento de modelos, execução de inferência, roteamento de solicitações e outras etapas-chave, permitindo uma implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:
Módulo de armazenamento LoRA Adapter: o adaptador LoRA afinado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando carregar todos os modelos na memória de vídeo, economizando recursos.
Hospedagem de modelos e camada de fusão dinâmica: todos os modelos de ajuste fino compartilham um grande modelo base, a fusão dinâmica do adaptador LoRA durante a inferência, suportando múltiplos adaptadores para inferência conjunta (ensemble), melhorando o desempenho.
Motor de inferência: integração de várias otimizações CUDA como Flash-Attention, Paged-Attention, SGMV.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 gostos
Recompensa
9
8
Partilhar
Comentar
0/400
OneCoinForTheWorld
· 8h atrás
快 entrar numa posição!🚗
Ver originalResponder0
OneCoinForTheWorld
· 8h atrás
Firme HODL💎
Ver originalResponder0
OneCoinForTheWorld
· 8h atrás
快 entrar numa posição!🚗
Ver originalResponder0
SignatureDenied
· 8h atrás
Está novamente a falar sobre web3 e a brincar com a ai.
Ver originalResponder0
LidoStakeAddict
· 8h atrás
Vamos lá, vou fazer três depósitos primeiro.
Ver originalResponder0
CrashHotline
· 8h atrás
Aproveitar uma oportunidade de enriquecer rapidamente, vai ou não?
OpenLedger cria um ecossistema AI na cadeia: OP Stack + EigenDA como base para construir um novo paradigma da economia de agentes
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Um, Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de cálculo são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de cálculo), todos essenciais. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder de cálculo". No entanto, ao entrar em 2025, a atenção da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de médio nível com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem grandes (LLM) tradicionais dependem fortemente de conjuntos de dados em grande escala e de arquiteturas distribuídas complexas, com tamanhos de parâmetro que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo básico reutilizável, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente o custo de treinamento e a barreira técnica.
Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através de chamadas da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA, RAG (Geração Aumentada por Recuperação) e outras formas. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
Os projetos de Crypto AI, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é
No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de Modelos de Linguagem Especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:
Análise da classificação dos tipos de modelos de IA e da aplicabilidade da blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, bem como na implementação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médio a baixo, formando um valor diferenciado na "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são chamados, transformando o comportamento da IA em um valor tokenizado, mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos através de votação com tokens, participar da formulação e iteração de regras, aprimorando a arquitetura de governança descentralizada.
II. Visão geral do projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele introduziu o conceito de "Payable AI" com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter ganhos em cadeia com base nas suas contribuições reais.
A OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até o "desdobramento de modelos" e, em seguida, "chamada de repartição de lucros", cujos módulos principais incluem:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes inteligente" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a cadeias de IA genéricas como NEAR, que são mais orientadas para a camada base e enfatizam a soberania dos dados com a arquitetura "AI Agents on BOS", a OpenLedger foca mais na construção de cadeias dedicadas à IA voltadas para a incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos numa cadeia rastreável, combinável e sustentável em termos de valor. É a infraestrutura de incentivos para modelos no mundo Web3, combinando hospedagem de modelos ao estilo HuggingFace, cobrança de uso ao estilo Stripe e interfaces combináveis na cadeia ao estilo Infura, promovendo o caminho para a realização de "modelo como ativo".
Três, Componentes principais e arquitetura técnica da OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base nos conjuntos de dados que foram autorizados e revisados na OpenLedger. Isso implementa um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, com interação em tempo real e monetização sustentável.
A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam numa configuração "prática em primeiro lugar".
Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens como baixo custo de entrada, capacidade de monetização e combinabilidade, em comparação com ferramentas de desenvolvimento de modelos tradicionais:
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo de fine-tuning
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa rank" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implementação é flexível, sendo atualmente o método de ajuste fino mais adequado para a implementação e chamada combinada de modelos Web3.
OpenLoRA é uma estrutura de inferência leve, construída pela OpenLedger, projetada especificamente para o despliegue de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns no despliegue de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a implementação da "IA Pagável".
Componentes principais da arquitetura do sistema OpenLoRA, baseados em design modular, cobrem armazenamento de modelos, execução de inferência, roteamento de solicitações e outras etapas-chave, permitindo uma implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo: