Projetos Web3 com conceito de IA tornam-se alvos de atração de capital nos mercados primário e secundário.
As oportunidades do Web3 na indústria de IA manifestam-se em: utilizar incentivos distribuídos para coordenar o potencial de oferta de cauda longa, envolvendo dados, armazenamento e computação; ao mesmo tempo, estabelecer um mercado descentralizado para modelos de código aberto e agentes de IA.
A IA é principalmente aplicada na indústria Web3 em finanças em cadeia (pagamentos em criptomoeda, negociação, análise de dados) e assistência ao desenvolvimento.
A utilidade da combinação AI+Web3 reside na complementaridade entre os dois: o Web3 promete combater a centralização da IA, enquanto a IA promete ajudar o Web3 a expandir seu alcance.
Introdução
Nos últimos dois anos, o desenvolvimento da IA parece ter sido acelerado. Esta onda desencadeada pelo Chatgpt não só abriu um novo mundo de inteligência artificial generativa, mas também provocou grandes ondas no campo do Web3.
Com o suporte do conceito de IA, o financiamento do mercado de criptomoedas foi claramente impulsionado. Segundo estatísticas, apenas no primeiro semestre de 2024, 64 projetos Web3+IA conseguiram financiamento, com o sistema operacional baseado em inteligência artificial Zyber365 a alcançar um montante máximo de financiamento de 100 milhões de dólares na sua ronda A.
O mercado secundário está mais próspero. Dados do site de agregação de criptomoedas Coingecko mostram que, em pouco mais de um ano, o valor total de mercado da área de IA já atingiu 48,5 bilhões de dólares, com um volume de negociações em 24 horas próximo de 8,6 bilhões de dólares. Os benefícios claros trazidos pelos avanços das tecnologias de IA, após o lançamento do modelo de texto para vídeo Sora da OpenAI, resultaram em um aumento médio de preço de 151% no setor de IA. O efeito da IA também se espalhou para um dos segmentos de captação de criptomoedas, os Memes: o primeiro MemeCoin com conceito de Agente de IA — GOAT, tornou-se rapidamente popular e foi avaliado em 1,4 bilhões de dólares, gerando uma onda de Meme de IA.
A pesquisa e os tópicos sobre AI+Web3 também estão em alta, desde AI+Depin até AI Memecoin e atualmente AI Agent e AI DAO, a emoção FOMO já não consegue acompanhar a velocidade da rotação das novas narrativas.
A combinação de termos AI+Web3, cheia de dinheiro fácil, oportunidades e fantasias futuras, inevitavelmente é vista como um casamento arranjado pela capital. Parece-nos difícil discernir, sob esse exterior glamoroso, se é realmente o campo dos especuladores ou se está na véspera de uma explosão ao amanhecer?
Para responder a esta questão, um pensamento crucial para ambas as partes é: a presença do outro tornará as coisas melhores? Será que se pode beneficiar dos modelos do outro? Este artigo tenta, apoiando-se nos ombros de gigantes, examinar este padrão: como o Web3 pode desempenhar um papel em cada parte da pilha de tecnologia de IA, e o que a IA pode trazer de novo para o Web3?
Parte.1 Quais são as oportunidades para o Web3 sob a pilha de IA?
Antes de abordar este tópico, precisamos entender a pilha tecnológica dos grandes modelos de IA:
Expresse todo o processo em linguagem simples: "Grande modelo" é como o cérebro humano, nas fases iniciais é como um bebê recém-nascido, que precisa observar e absorver uma grande quantidade de informações externas para entender o mundo, essa é a fase de "coleta" de dados. Como os computadores não possuem os múltiplos sentidos humanos, as grandes informações externas não rotuladas precisam passar por "pré-processamento" para serem convertidas em um formato de informação que o computador possa entender e usar.
Após a entrada de dados, a IA constrói um modelo com capacidade de compreensão e previsão através de "treinamento", que pode ser visto como o processo em que um bebê gradualmente entende e aprende sobre o mundo exterior, onde os parâmetros do modelo são como as habilidades linguísticas que o bebê ajusta continuamente durante o processo de aprendizagem. O conteúdo de aprendizagem começa a ser dividido em disciplinas ou obtém feedback através da interação com outras pessoas e é corrigido, entrando assim na fase de "ajuste fino" do grande modelo.
Quando as crianças crescem e começam a falar, conseguem entender significados e expressar sentimentos e pensamentos em novas conversas. Esta fase é semelhante ao "raciocínio" de grandes modelos de IA, onde o modelo pode prever e analisar novos textos em linguagem. Os bebês expressam sentimentos, descrevem objetos e resolvem problemas através de suas habilidades linguísticas, assim como grandes modelos de IA, após serem treinados e utilizados, aplicam-se em várias tarefas específicas durante a fase de raciocínio, como classificação de imagens, reconhecimento de voz, etc.
E o Agente de IA está mais próximo da próxima forma dos grandes modelos - capaz de executar tarefas de forma independente e perseguir objetivos complexos, possuindo não apenas a capacidade de pensar, mas também de memorizar, planejar e interagir com o mundo usando ferramentas.
Atualmente, em resposta às dores da IA em várias pilhas, o Web3 começou a formar um ecossistema interconectado e multifacetado, abrangendo todas as etapas do fluxo de modelos de IA.
Uma, Camada Básica: Airbnb de Poder Computacional e Dados
Poder de cálculo
Atualmente, um dos maiores custos da IA é a potência computacional e a energia necessárias para treinar e inferir modelos.
Por exemplo, o LLAMA3 da Meta requer 16.000 GPUs H100 da NVIDIA (que são unidades de processamento gráfico de topo projetadas para cargas de trabalho de IA e computação de alto desempenho) durante 30 dias para ser treinado. A versão de 80 GB custa entre 30.000 e 40.000 dólares, o que exige um investimento em hardware de computação de 400 a 700 milhões de dólares (GPU + chip de rede), enquanto o treinamento mensal consome 1,6 bilhões de quilowatts-hora, com despesas de energia de quase 20 milhões de dólares por mês.
A descompressão do poder computacional da IA é, na verdade, uma das primeiras áreas de interseção entre Web3 e IA – DePin (rede de infraestrutura física descentralizada). Atualmente, o site de dados DePin Ninja já listou mais de 1400 projetos, dos quais os projetos representativos de compartilhamento de poder computacional GPU incluem io.net, Aethir, Akash, Render Network, entre outros.
A sua lógica principal é: a plataforma permite que indivíduos ou entidades com recursos de GPU ociosos contribuam com capacidade de computação de forma descentralizada e sem necessidade de autorização, através de um mercado online entre compradores e vendedores semelhante ao Uber ou Airbnb, aumentando a utilização de recursos de GPU subutilizados, e os usuários finais obtêm assim recursos de computação eficientes a um custo mais baixo; ao mesmo tempo, o mecanismo de staking assegura que os provedores de recursos tenham penalizações adequadas caso violem os mecanismos de controle de qualidade ou interrompam a rede.
As suas características são:
Reunir recursos GPU ociosos: os fornecedores são principalmente operadores de centros de dados independentes de médio e pequeno porte, fazendas de mineração de criptomoedas e recursos de capacidade excedente, com mecanismos de consenso para hardware de mineração PoS, como FileCoin e máquinas de mineração ETH. Atualmente, também há projetos dedicados a iniciar equipamentos com barreiras de entrada mais baixas, como o exolab, que utiliza MacBook, iPhone, iPad e outros dispositivos locais para estabelecer uma rede de computação para a inferência de grandes modelos.
Enfrentando o mercado de cauda longa da capacidade computacional de IA:
a. "Em termos técnicos", o mercado de potência descentralizada é mais adequado para etapas de inferência. O treinamento depende mais da capacidade de processamento de dados proporcionada por GPUs em larga escala, enquanto a inferência tem requisitos relativamente baixos em termos de desempenho computacional de GPUs, como a Aethir, que se concentra em trabalhos de renderização de baixa latência e aplicações de inferência de IA.
b. "Do lado da demanda" os pequenos consumidores de poder computacional não irão treinar seus próprios grandes modelos, mas apenas escolherão otimizar e ajustar finamente em torno de alguns poucos grandes modelos de destaque, e esses cenários são naturalmente adequados para recursos de computação ociosos distribuídos.
Propriedade descentralizada: o significado técnico da blockchain reside no fato de que os proprietários de recursos mantêm sempre o controle sobre os recursos, ajustando-os de forma flexível de acordo com a demanda, ao mesmo tempo em que obtêm lucros.
Dados
Os dados são a base da IA. Sem dados, o cálculo é como uma planta flutuante, sem utilidade. A relação entre dados e modelos é como diz o provérbio "Garbage in, Garbage out"; a quantidade de dados e a qualidade da entrada determinam a qualidade da saída final do modelo. Para o treinamento dos modelos de IA atuais, os dados determinam a capacidade linguística, a capacidade de compreensão, e até mesmo a visão de mundo e a humanização do modelo. Atualmente, as dificuldades na demanda por dados na IA concentram-se principalmente em quatro aspectos:
Fome de dados: O treinamento de modelos de IA depende de uma grande quantidade de dados de entrada. Dados públicos mostram que o OpenAI treinou o GPT-4 com um número de parâmetros que chegou à casa dos trilhões.
Qualidade dos dados: À medida que a IA se combina com vários setores, a atualidade, diversidade, especialização de dados verticais e a incorporação de novas fontes de dados, como a emoção das redes sociais, impõem novas exigências à sua qualidade.
Questões de privacidade e conformidade: Atualmente, países e empresas estão gradualmente reconhecendo a importância de conjuntos de dados de alta qualidade e estão impondo restrições à coleta de conjuntos de dados.
Custo elevado de processamento de dados: grande volume de dados, processo de tratamento complexo. Dados públicos mostram que mais de 30% dos custos de P&D das empresas de IA são usados para a coleta e processamento de dados básicos.
Atualmente, as soluções web3 manifestam-se nas seguintes quatro áreas:
Coleta de Dados: A oferta de dados do mundo real que podem ser capturados gratuitamente está rapidamente se esgotando, e os gastos das empresas de IA com dados estão aumentando ano após ano. No entanto, esses gastos não estão retornando aos verdadeiros contribuintes de dados, enquanto as plataformas desfrutam completamente da criação de valor trazida pelos dados, como o Reddit, que gerou uma receita total de 203 milhões de dólares através de acordos de licenciamento de dados com empresas de IA.
Permitir que os usuários que realmente contribuem também participem na criação de valor trazida pelos dados, e obter dados mais privados e valiosos de maneira de baixo custo através de redes distribuídas e mecanismos de incentivo, é a visão do Web3.
Grass é uma camada de dados e rede descentralizada, onde os usuários podem contribuir com largura de banda ociosa e tráfego de retransmissão ao executar nós do Grass para capturar dados em tempo real de toda a internet e receber recompensas em tokens.
A Vana introduziu o conceito único de pool de liquidez de dados (DLP), permitindo que os usuários façam upload de dados privados (como histórico de compras, hábitos de navegação, atividades em redes sociais, etc.) para um DLP específico e escolham de forma flexível se desejam autorizar o uso desses dados por terceiros específicos.
No PublicAI, os usuários podem usar #AI或#Web3 como etiqueta de classificação no X e @PublicAI para realizar a coleta de dados.
Pré-processamento de dados: No processo de tratamento de dados da IA, como os dados coletados geralmente são ruidosos e contêm erros, é necessário limpá-los e convertê-los para um formato utilizável antes de treinar o modelo, envolvendo tarefas repetitivas de padronização, filtragem e tratamento de valores ausentes. Esta fase é uma das poucas etapas manuais na indústria de IA, tendo gerado a profissão de anotador de dados, e à medida que as exigências de qualidade dos dados pelos modelos aumentam, o nível de exigência para os anotadores de dados também aumenta, e essa tarefa é naturalmente adequada ao mecanismo de incentivo descentralizado do Web3.
Atualmente, a Grass e a OpenLayer estão considerando a adição da rotulagem de dados a esta etapa crucial.
A Synesis propôs o conceito "Train2earn", enfatizando a qualidade dos dados, onde os usuários podem obter recompensas ao fornecer dados anotados, comentários ou outras formas de input.
O projeto de rotulagem de dados Sapien gamifica as tarefas de rotulagem e permite que os usuários apostem pontos para ganhar mais pontos.
Privacidade e segurança dos dados: é necessário esclarecer que privacidade e segurança dos dados são dois conceitos diferentes. A privacidade dos dados envolve o tratamento de dados sensíveis, enquanto a segurança dos dados protege as informações contra acesso, destruição e roubo não autorizados. Assim, as vantagens das tecnologias de privacidade do Web3 e os cenários de aplicação potenciais se manifestam em duas áreas: (1) treinamento de dados sensíveis; (2) colaboração de dados: vários proprietários de dados podem participar juntos do treinamento de IA, sem precisar compartilhar seus dados originais.
As tecnologias de privacidade mais comuns no Web3 atualmente incluem:
Ambiente de Execução Confiável ( TEE ), como o Super Protocol.
Criptografia homomórfica totalmente (FHE), como BasedAI, Fhenix.io ou Inco Network.
Tecnologia de zero conhecimento (zk), como o Protocolo Reclaim que utiliza a tecnologia zkTLS, gera provas de zero conhecimento para o tráfego HTTPS, permitindo que os usuários importem de forma segura atividades, reputação e dados de identidade de sites externos, sem expor informações sensíveis.
No entanto, neste momento, o setor ainda está em fase inicial, a maioria dos projetos ainda está em exploração, e a dificuldade atual é que os custos computacionais são muito altos, por exemplo:
O framework zkML EZKL leva cerca de 80 minutos para gerar a prova do modelo 1M-nanoGPT.
De acordo com os dados da Modulus Labs, os custos do zkML são mais de 1000 vezes superiores aos da computação pura.
Armazenamento de dados: Após obter os dados, é necessário um local na cadeia para armazenar os dados e o LLM gerado a partir desses dados. Com a disponibilidade de dados (DA) como a questão central, antes da atualização do Danksharding do Ethereum, sua capacidade era de 0,08 MB. Ao mesmo tempo, o treinamento de modelos de IA e a inferência em tempo real geralmente requerem uma taxa de transferência de dados de 50 a 100 GB por segundo. Essa diferença de magnitude deixa as soluções existentes na cadeia incapazes de lidar com "aplicações de IA intensivas em recursos".
0g.AI é o projeto representativo desta categoria. É uma solução de armazenamento centralizada projetada para atender às altas demandas de desempenho de IA, com características-chave incluindo: alto desempenho e escalabilidade, suportando upload e download rápidos de grandes conjuntos de dados através de tecnologias de sharding avançado e codificação de eliminação, com velocidades de transferência de dados próximas a 5GB por segundo.
Dois, Middleware: Treinamento e Inferência do Modelo
Mercado descentralizado de modelos de código aberto
O debate sobre se os modelos de IA devem ser de código aberto ou fechado nunca desapareceu. A inovação coletiva trazida pelo código aberto é uma vantagem incomparável em relação aos modelos fechados, no entanto, sem um modelo de lucro, como podem os modelos de código aberto aumentar a motivação dos desenvolvedores? Vale a pena refletir.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
16 Curtidas
Recompensa
16
6
Compartilhar
Comentário
0/400
NeverVoteOnDAO
· 13h atrás
Ainda a misturar esses conceitos para enganar as pessoas.
Ver originalResponder0
PanicSeller69
· 14h atrás
Está a enrolar-se, realmente tenho que entrar numa posição.
Ver originalResponder0
OnChainDetective
· 14h atrás
Fiquei de olho nos dados a noite toda, até o modo de negociação é pré-definido pela IA.
Ver originalResponder0
SybilSlayer
· 14h atrás
Amo encriptação e adoro passear, é realmente delicioso.
Ver originalResponder0
ThatsNotARugPull
· 14h atrás
Ainda quer fazer as pessoas de parvas, mas não quer ser um idiota do web3.
Ver originalResponder0
BearMarketBarber
· 14h atrás
Outra onda de máquinas que fazem as pessoas de parvas
AI+Web3: Explorando a aplicação de incentivos distribuídos nos mercados de dados, Poder de computação e Código aberto.
AI+Web3: Torres e Praças
TL;DR
Projetos Web3 com conceito de IA tornam-se alvos de atração de capital nos mercados primário e secundário.
As oportunidades do Web3 na indústria de IA manifestam-se em: utilizar incentivos distribuídos para coordenar o potencial de oferta de cauda longa, envolvendo dados, armazenamento e computação; ao mesmo tempo, estabelecer um mercado descentralizado para modelos de código aberto e agentes de IA.
A IA é principalmente aplicada na indústria Web3 em finanças em cadeia (pagamentos em criptomoeda, negociação, análise de dados) e assistência ao desenvolvimento.
A utilidade da combinação AI+Web3 reside na complementaridade entre os dois: o Web3 promete combater a centralização da IA, enquanto a IA promete ajudar o Web3 a expandir seu alcance.
Introdução
Nos últimos dois anos, o desenvolvimento da IA parece ter sido acelerado. Esta onda desencadeada pelo Chatgpt não só abriu um novo mundo de inteligência artificial generativa, mas também provocou grandes ondas no campo do Web3.
Com o suporte do conceito de IA, o financiamento do mercado de criptomoedas foi claramente impulsionado. Segundo estatísticas, apenas no primeiro semestre de 2024, 64 projetos Web3+IA conseguiram financiamento, com o sistema operacional baseado em inteligência artificial Zyber365 a alcançar um montante máximo de financiamento de 100 milhões de dólares na sua ronda A.
O mercado secundário está mais próspero. Dados do site de agregação de criptomoedas Coingecko mostram que, em pouco mais de um ano, o valor total de mercado da área de IA já atingiu 48,5 bilhões de dólares, com um volume de negociações em 24 horas próximo de 8,6 bilhões de dólares. Os benefícios claros trazidos pelos avanços das tecnologias de IA, após o lançamento do modelo de texto para vídeo Sora da OpenAI, resultaram em um aumento médio de preço de 151% no setor de IA. O efeito da IA também se espalhou para um dos segmentos de captação de criptomoedas, os Memes: o primeiro MemeCoin com conceito de Agente de IA — GOAT, tornou-se rapidamente popular e foi avaliado em 1,4 bilhões de dólares, gerando uma onda de Meme de IA.
A pesquisa e os tópicos sobre AI+Web3 também estão em alta, desde AI+Depin até AI Memecoin e atualmente AI Agent e AI DAO, a emoção FOMO já não consegue acompanhar a velocidade da rotação das novas narrativas.
A combinação de termos AI+Web3, cheia de dinheiro fácil, oportunidades e fantasias futuras, inevitavelmente é vista como um casamento arranjado pela capital. Parece-nos difícil discernir, sob esse exterior glamoroso, se é realmente o campo dos especuladores ou se está na véspera de uma explosão ao amanhecer?
Para responder a esta questão, um pensamento crucial para ambas as partes é: a presença do outro tornará as coisas melhores? Será que se pode beneficiar dos modelos do outro? Este artigo tenta, apoiando-se nos ombros de gigantes, examinar este padrão: como o Web3 pode desempenhar um papel em cada parte da pilha de tecnologia de IA, e o que a IA pode trazer de novo para o Web3?
Parte.1 Quais são as oportunidades para o Web3 sob a pilha de IA?
Antes de abordar este tópico, precisamos entender a pilha tecnológica dos grandes modelos de IA:
Expresse todo o processo em linguagem simples: "Grande modelo" é como o cérebro humano, nas fases iniciais é como um bebê recém-nascido, que precisa observar e absorver uma grande quantidade de informações externas para entender o mundo, essa é a fase de "coleta" de dados. Como os computadores não possuem os múltiplos sentidos humanos, as grandes informações externas não rotuladas precisam passar por "pré-processamento" para serem convertidas em um formato de informação que o computador possa entender e usar.
Após a entrada de dados, a IA constrói um modelo com capacidade de compreensão e previsão através de "treinamento", que pode ser visto como o processo em que um bebê gradualmente entende e aprende sobre o mundo exterior, onde os parâmetros do modelo são como as habilidades linguísticas que o bebê ajusta continuamente durante o processo de aprendizagem. O conteúdo de aprendizagem começa a ser dividido em disciplinas ou obtém feedback através da interação com outras pessoas e é corrigido, entrando assim na fase de "ajuste fino" do grande modelo.
Quando as crianças crescem e começam a falar, conseguem entender significados e expressar sentimentos e pensamentos em novas conversas. Esta fase é semelhante ao "raciocínio" de grandes modelos de IA, onde o modelo pode prever e analisar novos textos em linguagem. Os bebês expressam sentimentos, descrevem objetos e resolvem problemas através de suas habilidades linguísticas, assim como grandes modelos de IA, após serem treinados e utilizados, aplicam-se em várias tarefas específicas durante a fase de raciocínio, como classificação de imagens, reconhecimento de voz, etc.
E o Agente de IA está mais próximo da próxima forma dos grandes modelos - capaz de executar tarefas de forma independente e perseguir objetivos complexos, possuindo não apenas a capacidade de pensar, mas também de memorizar, planejar e interagir com o mundo usando ferramentas.
Atualmente, em resposta às dores da IA em várias pilhas, o Web3 começou a formar um ecossistema interconectado e multifacetado, abrangendo todas as etapas do fluxo de modelos de IA.
Uma, Camada Básica: Airbnb de Poder Computacional e Dados
Poder de cálculo
Atualmente, um dos maiores custos da IA é a potência computacional e a energia necessárias para treinar e inferir modelos.
Por exemplo, o LLAMA3 da Meta requer 16.000 GPUs H100 da NVIDIA (que são unidades de processamento gráfico de topo projetadas para cargas de trabalho de IA e computação de alto desempenho) durante 30 dias para ser treinado. A versão de 80 GB custa entre 30.000 e 40.000 dólares, o que exige um investimento em hardware de computação de 400 a 700 milhões de dólares (GPU + chip de rede), enquanto o treinamento mensal consome 1,6 bilhões de quilowatts-hora, com despesas de energia de quase 20 milhões de dólares por mês.
A descompressão do poder computacional da IA é, na verdade, uma das primeiras áreas de interseção entre Web3 e IA – DePin (rede de infraestrutura física descentralizada). Atualmente, o site de dados DePin Ninja já listou mais de 1400 projetos, dos quais os projetos representativos de compartilhamento de poder computacional GPU incluem io.net, Aethir, Akash, Render Network, entre outros.
A sua lógica principal é: a plataforma permite que indivíduos ou entidades com recursos de GPU ociosos contribuam com capacidade de computação de forma descentralizada e sem necessidade de autorização, através de um mercado online entre compradores e vendedores semelhante ao Uber ou Airbnb, aumentando a utilização de recursos de GPU subutilizados, e os usuários finais obtêm assim recursos de computação eficientes a um custo mais baixo; ao mesmo tempo, o mecanismo de staking assegura que os provedores de recursos tenham penalizações adequadas caso violem os mecanismos de controle de qualidade ou interrompam a rede.
As suas características são:
Reunir recursos GPU ociosos: os fornecedores são principalmente operadores de centros de dados independentes de médio e pequeno porte, fazendas de mineração de criptomoedas e recursos de capacidade excedente, com mecanismos de consenso para hardware de mineração PoS, como FileCoin e máquinas de mineração ETH. Atualmente, também há projetos dedicados a iniciar equipamentos com barreiras de entrada mais baixas, como o exolab, que utiliza MacBook, iPhone, iPad e outros dispositivos locais para estabelecer uma rede de computação para a inferência de grandes modelos.
Enfrentando o mercado de cauda longa da capacidade computacional de IA:
a. "Em termos técnicos", o mercado de potência descentralizada é mais adequado para etapas de inferência. O treinamento depende mais da capacidade de processamento de dados proporcionada por GPUs em larga escala, enquanto a inferência tem requisitos relativamente baixos em termos de desempenho computacional de GPUs, como a Aethir, que se concentra em trabalhos de renderização de baixa latência e aplicações de inferência de IA.
b. "Do lado da demanda" os pequenos consumidores de poder computacional não irão treinar seus próprios grandes modelos, mas apenas escolherão otimizar e ajustar finamente em torno de alguns poucos grandes modelos de destaque, e esses cenários são naturalmente adequados para recursos de computação ociosos distribuídos.
Dados
Os dados são a base da IA. Sem dados, o cálculo é como uma planta flutuante, sem utilidade. A relação entre dados e modelos é como diz o provérbio "Garbage in, Garbage out"; a quantidade de dados e a qualidade da entrada determinam a qualidade da saída final do modelo. Para o treinamento dos modelos de IA atuais, os dados determinam a capacidade linguística, a capacidade de compreensão, e até mesmo a visão de mundo e a humanização do modelo. Atualmente, as dificuldades na demanda por dados na IA concentram-se principalmente em quatro aspectos:
Fome de dados: O treinamento de modelos de IA depende de uma grande quantidade de dados de entrada. Dados públicos mostram que o OpenAI treinou o GPT-4 com um número de parâmetros que chegou à casa dos trilhões.
Qualidade dos dados: À medida que a IA se combina com vários setores, a atualidade, diversidade, especialização de dados verticais e a incorporação de novas fontes de dados, como a emoção das redes sociais, impõem novas exigências à sua qualidade.
Questões de privacidade e conformidade: Atualmente, países e empresas estão gradualmente reconhecendo a importância de conjuntos de dados de alta qualidade e estão impondo restrições à coleta de conjuntos de dados.
Custo elevado de processamento de dados: grande volume de dados, processo de tratamento complexo. Dados públicos mostram que mais de 30% dos custos de P&D das empresas de IA são usados para a coleta e processamento de dados básicos.
Atualmente, as soluções web3 manifestam-se nas seguintes quatro áreas:
Permitir que os usuários que realmente contribuem também participem na criação de valor trazida pelos dados, e obter dados mais privados e valiosos de maneira de baixo custo através de redes distribuídas e mecanismos de incentivo, é a visão do Web3.
Grass é uma camada de dados e rede descentralizada, onde os usuários podem contribuir com largura de banda ociosa e tráfego de retransmissão ao executar nós do Grass para capturar dados em tempo real de toda a internet e receber recompensas em tokens.
A Vana introduziu o conceito único de pool de liquidez de dados (DLP), permitindo que os usuários façam upload de dados privados (como histórico de compras, hábitos de navegação, atividades em redes sociais, etc.) para um DLP específico e escolham de forma flexível se desejam autorizar o uso desses dados por terceiros específicos.
No PublicAI, os usuários podem usar #AI或#Web3 como etiqueta de classificação no X e @PublicAI para realizar a coleta de dados.
Atualmente, a Grass e a OpenLayer estão considerando a adição da rotulagem de dados a esta etapa crucial.
A Synesis propôs o conceito "Train2earn", enfatizando a qualidade dos dados, onde os usuários podem obter recompensas ao fornecer dados anotados, comentários ou outras formas de input.
O projeto de rotulagem de dados Sapien gamifica as tarefas de rotulagem e permite que os usuários apostem pontos para ganhar mais pontos.
As tecnologias de privacidade mais comuns no Web3 atualmente incluem:
Ambiente de Execução Confiável ( TEE ), como o Super Protocol.
Criptografia homomórfica totalmente (FHE), como BasedAI, Fhenix.io ou Inco Network.
Tecnologia de zero conhecimento (zk), como o Protocolo Reclaim que utiliza a tecnologia zkTLS, gera provas de zero conhecimento para o tráfego HTTPS, permitindo que os usuários importem de forma segura atividades, reputação e dados de identidade de sites externos, sem expor informações sensíveis.
No entanto, neste momento, o setor ainda está em fase inicial, a maioria dos projetos ainda está em exploração, e a dificuldade atual é que os custos computacionais são muito altos, por exemplo:
O framework zkML EZKL leva cerca de 80 minutos para gerar a prova do modelo 1M-nanoGPT.
De acordo com os dados da Modulus Labs, os custos do zkML são mais de 1000 vezes superiores aos da computação pura.
Dois, Middleware: Treinamento e Inferência do Modelo
Mercado descentralizado de modelos de código aberto
O debate sobre se os modelos de IA devem ser de código aberto ou fechado nunca desapareceu. A inovação coletiva trazida pelo código aberto é uma vantagem incomparável em relação aos modelos fechados, no entanto, sem um modelo de lucro, como podem os modelos de código aberto aumentar a motivação dos desenvolvedores? Vale a pena refletir.