Relatório de Pesquisa Layer1 de IA: Procurando o Solo Fértil para DeAI na cadeia
Visão Geral
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem (LLM). Os LLMs demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando, em alguns cenários, o potencial de substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões terão um profundo impacto no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem adequadamente resolvidas, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, devido às suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, surgiram numerosas aplicações de "Web3 AI" em blockchains populares como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestrutura críticas ainda dependentes de serviços de nuvem centralizados, e uma forte presença de atributos meme, dificultando o sustento de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação a necessitar de melhorias.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que possa competir em termos de desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a governança democrática e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismo de incentivos eficazes e consenso descentralizado
O núcleo do AI Layer 1 está na construção de uma rede compartilhada de recursos, como poder computacional e armazenamento, abertos. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade do livro razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas; não apenas fornecer poder computacional e completar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e os mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, alcançando a segurança da rede e a distribuição eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de poder computacional.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem requisitos extremamente altos em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos de computação heterogênea, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável
O AI Layer 1 não só deve prevenir riscos de segurança como o mau uso de modelos e a manipulação de dados, mas também deve garantir, a partir de mecanismos subjacentes, a verificabilidade e a alinhamento dos resultados de saída da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multi-partes (MPC), a plataforma consegue permitir que cada inferência de modelo, processo de treinamento e manipulação de dados sejam independentemente verificáveis, garantindo a justiça e a transparência do sistema de IA. Simultaneamente, essa verificabilidade também pode ajudar os usuários a entenderem a lógica e a base das saídas da IA, alcançando o "que se recebe é o que se deseja", aumentando a confiança e a satisfação dos usuários com os produtos de IA.
Proteção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados particularmente crucial nos setores financeiro, médico e social. A AI Layer 1 deve, ao garantir a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Poderosa capacidade de suporte ao desenvolvimento e à carga ecológica
Como uma infraestrutura Layer 1 nativa da IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e provedores de serviços de IA, entre outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promover a implementação de aplicações nativas de IA diversificadas e ricas, alcançando assim a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, organizando sistematicamente os avanços mais recentes da pista, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto, que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois será migrada para Layer 1), através da combinação de Pipeline de IA e tecnologia blockchain, construindo uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver questões de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (, aberta, lucrativa e leal ), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim uma rede ecológica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI de código aberto, verificável e impulsionada pela comunidade. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o co-fundador da Polygon, Sandeep Nailwal, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase e Polygon, assim como em universidades de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com uma aura especial, possuindo recursos, conexões e reconhecimento de mercado abundantes, que proporcionaram um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de outras conhecidas VCs.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por duas partes: o AI Pipeline( e o sistema na cadeia.
A infraestrutura de IA é a base para o desenvolvimento e treinamento de artefatos "AI Leal", contendo dois processos principais:
Planeamento de Dados ) Data Curation (: um processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade ): garantir que o modelo mantenha um processo de treinamento alinhado com a intenção da comunidade.
O sistema de blockchain fornece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazenar pesos do modelo e informações de registro de impressões digitais;
Camada de Distribuição: entrada de chamada do modelo controlado por contrato de autorização;
Camada de Acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de rendimento distribuirá o pagamento a cada chamada para os treinadores, implementadores e validadores.
(## O modelo OML
A estrutura OML ) é aberta Open, monetizável Monetizable e leal Loyal###, sendo o conceito central proposto pela Sentient, que visa fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo aciona um fluxo de receita, o contrato na cadeia distribuirá os ganhos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção da atualização e a governança são decididas pelo DAO, e o uso e a modificação estão sob o controle de mecanismos criptográficos.
(## Criptografia Nativa de IA)AI-native Cryptography###
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Impressão digital: durante o treinamento, insere-se um conjunto de pares de chave-valor de query-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital é mantida através de um detector de terceiros (Prover) na forma de perguntas query;
Mecanismo de chamada de autorização: antes da chamada, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Esta abordagem permite a implementação de "chamadas autorizadas baseadas em comportamentos + verificação de pertencimento" sem custos de re-encriptação.
(## Modelo de confirmação de direitos e estrutura de execução segura
Sentient atualmente adota Melange Mistura de Segurança: combina autenticação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista)Optimistic Security###", que pressupõe conformidade, podendo detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento através da incorporação de pares específicos de "pergunta-resposta". Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia das ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, utilizando ambientes de execução confiáveis (, como o AWS Nitro Enclaves ), para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele a tecnologia central para a implementação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para aumentar ainda mais a proteção da privacidade e a verificabilidade, fornecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
(# Camada de Aplicação
Atualmente, os produtos da Sentient incluem principalmente a plataforma de chat descentralizada Sentient Chat, a série de modelos de código aberto Dobby e a estrutura do AI Agent.
)## Série Dobby
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
20 Curtidas
Recompensa
20
6
Compartilhar
Comentário
0/400
CafeMinor
· 7h atrás
Ai, vários oligarcas querem monopolizar, como ficam os pequenos mineiros?
Ver originalResponder0
FrontRunFighter
· 8h atrás
outro bosque escuro cheio de MEV onde a grande tecnologia irá explorar a sua posição... a transparência está morta no jogo do monopólio da IA fr
Ver originalResponder0
GasFeeThunder
· 8h atrás
A taxa de mortalidade calculada por hora L1 geralmente não sobreviveu mais de três meses.
Ver originalResponder0
NFTRegretDiary
· 8h atrás
Com capital há um der
Ver originalResponder0
MemeKingNFT
· 8h atrás
As grandes empresas monopolizam, a tempestade se intensifica. Os pequenos investidores conseguiram mais um pacote de bull run?
Relatório de pesquisa sobre AI Layer1: Seis grandes projetos competem pela Descentralização da infraestrutura de AI.
Relatório de Pesquisa Layer1 de IA: Procurando o Solo Fértil para DeAI na cadeia
Visão Geral
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem (LLM). Os LLMs demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando, em alguns cenários, o potencial de substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões terão um profundo impacto no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem adequadamente resolvidas, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, devido às suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, surgiram numerosas aplicações de "Web3 AI" em blockchains populares como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestrutura críticas ainda dependentes de serviços de nuvem centralizados, e uma forte presença de atributos meme, dificultando o sustento de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação a necessitar de melhorias.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que possa competir em termos de desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a governança democrática e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismo de incentivos eficazes e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede compartilhada de recursos, como poder computacional e armazenamento, abertos. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade do livro razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas; não apenas fornecer poder computacional e completar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e os mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, alcançando a segurança da rede e a distribuição eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de poder computacional.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem requisitos extremamente altos em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativo a recursos de computação heterogênea, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável O AI Layer 1 não só deve prevenir riscos de segurança como o mau uso de modelos e a manipulação de dados, mas também deve garantir, a partir de mecanismos subjacentes, a verificabilidade e a alinhamento dos resultados de saída da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multi-partes (MPC), a plataforma consegue permitir que cada inferência de modelo, processo de treinamento e manipulação de dados sejam independentemente verificáveis, garantindo a justiça e a transparência do sistema de IA. Simultaneamente, essa verificabilidade também pode ajudar os usuários a entenderem a lógica e a base das saídas da IA, alcançando o "que se recebe é o que se deseja", aumentando a confiança e a satisfação dos usuários com os produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados particularmente crucial nos setores financeiro, médico e social. A AI Layer 1 deve, ao garantir a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Poderosa capacidade de suporte ao desenvolvimento e à carga ecológica Como uma infraestrutura Layer 1 nativa da IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e provedores de serviços de IA, entre outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promover a implementação de aplicações nativas de IA diversificadas e ricas, alcançando assim a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, organizando sistematicamente os avanços mais recentes da pista, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto, que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois será migrada para Layer 1), através da combinação de Pipeline de IA e tecnologia blockchain, construindo uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver questões de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (, aberta, lucrativa e leal ), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim uma rede ecológica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI de código aberto, verificável e impulsionada pela comunidade. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o co-fundador da Polygon, Sandeep Nailwal, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase e Polygon, assim como em universidades de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com uma aura especial, possuindo recursos, conexões e reconhecimento de mercado abundantes, que proporcionaram um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de outras conhecidas VCs.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por duas partes: o AI Pipeline( e o sistema na cadeia.
A infraestrutura de IA é a base para o desenvolvimento e treinamento de artefatos "AI Leal", contendo dois processos principais:
O sistema de blockchain fornece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
(## O modelo OML
A estrutura OML ) é aberta Open, monetizável Monetizable e leal Loyal###, sendo o conceito central proposto pela Sentient, que visa fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
(## Criptografia Nativa de IA)AI-native Cryptography###
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Esta abordagem permite a implementação de "chamadas autorizadas baseadas em comportamentos + verificação de pertencimento" sem custos de re-encriptação.
(## Modelo de confirmação de direitos e estrutura de execução segura
Sentient atualmente adota Melange Mistura de Segurança: combina autenticação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista)Optimistic Security###", que pressupõe conformidade, podendo detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento através da incorporação de pares específicos de "pergunta-resposta". Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia das ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, utilizando ambientes de execução confiáveis (, como o AWS Nitro Enclaves ), para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele a tecnologia central para a implementação de modelos atualmente.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para aumentar ainda mais a proteção da privacidade e a verificabilidade, fornecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
(# Camada de Aplicação
Atualmente, os produtos da Sentient incluem principalmente a plataforma de chat descentralizada Sentient Chat, a série de modelos de código aberto Dobby e a estrutura do AI Agent.
)## Série Dobby