A ascensão do AI DePIN: a Descentralização da rede GPU está a remodelar a infraestrutura computacional

A interseção da IA e DePIN: a ascensão das redes GPU descentralizadas

Recentemente, a IA e o DePIN tornaram-se tendências populares no campo do Web3, com um valor de mercado de 30 bilhões de dólares e 23 bilhões de dólares, respectivamente. Este artigo se concentrará na interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.

AI e o ponto de intersecção do DePIN

Na pilha de tecnologia de IA, a rede DePIN capacita a IA ao fornecer recursos computacionais. Devido à escassez de GPUs causada por grandes empresas de tecnologia, outros desenvolvedores têm dificuldade em obter GPUs suficientes para o cálculo de modelos de IA. A prática tradicional é escolher fornecedores de serviços em nuvem centralizados, mas isso requer a assinatura de contratos de longo prazo inflexíveis, resultando em ineficiência.

DePIN oferece uma alternativa mais flexível e econômica, incentivando a contribuição de recursos através de recompensas em tokens. O DePIN na área de IA integra recursos de GPU pessoais em centros de dados, fornecendo um fornecimento unificado para os usuários. Isso não apenas oferece aos desenvolvedores serviços personalizados sob demanda, mas também cria renda adicional para os proprietários de GPU.

Existem várias redes AI DePIN no mercado, este artigo irá analisar as funcionalidades, objetivos e conquistas de cada protocolo, bem como as diferenças entre eles.

Visão Geral da Rede DePIN de IA

Render

Render é o pioneiro da rede de computação GPU P2P, inicialmente focado em renderização de criação de conteúdo, e mais tarde expandiu para tarefas de computação em IA através da integração de ferramentas como Stable Diffusion.

Destaques:

  • Fundada pela empresa OTOY, vencedora do prêmio Oscar por sua tecnologia.
  • A Paramount Pictures, PUBG e outros gigantes da indústria de entretenimento utilizam a sua rede GPU
  • Colaborar com a Stability AI, integrando modelos de IA com fluxos de trabalho de renderização de conteúdo 3D
  • Aprovar múltiplos clientes de computação, integrar mais GPUs da rede DePIN

Akash

Akash posiciona-se como uma plataforma de "super nuvem" que suporta armazenamento, computação GPU e CPU, substituindo prestadores de serviços tradicionais como a AWS. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, permite a implementação sem costura de qualquer aplicação nativa da nuvem.

Destaques:

  • Voltado para uma ampla gama de tarefas computacionais, desde computação geral até hospedagem na web
  • AkashML permite executar mais de 15.000 modelos no Hugging Face
  • Aplicações como o chatbot LLM da Mistral AI, SDXL da Stability AI, etc.
  • Metaverso, implantação de IA e plataforma de aprendizado federado aproveitam seu Supercloud

io.net

A io.net oferece um cluster de nuvem GPU distribuído, especialmente para cenários de IA e ML. Integra recursos de GPU de data centers, mineradores de criptomoedas e outras áreas.

Destaques:

  • IO-SDK compatível com frameworks como PyTorch, a arquitetura em várias camadas pode ser automaticamente expandida conforme necessário
  • Suporta a criação de 3 tipos diferentes de clusters, iniciando em 2 minutos
  • Colaborar e integrar mais recursos de GPU com Render, Filecoin, entre outros

Gensyn

A Gensyn oferece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Aumenta a eficiência de validação através de mecanismos como prova de aprendizagem.

Destaques:

  • O custo por hora do GPU V100 é de aproximadamente 0,40 dólares, economizando significativamente nos custos.
  • Através da prova de empilhamento, é possível ajustar o modelo base pré-treinado.
  • O modelo básico será Descentralização, de propriedade global, e oferecerá funcionalidades adicionais.

Aethir

Aethir é especialmente equipado com GPUs de nível empresarial, focando em áreas de computação intensiva como IA, ML e jogos na nuvem. Através de contêineres, as cargas de trabalho são transferidas do local para a nuvem, alcançando baixa latência.

Destaques:

  • Expansão para serviços de telefone em nuvem, parceria com a APhone para lançar um telefone em nuvem descentralizado
  • Estabelecer ampla colaboração com gigantes do Web2 como NVIDIA, Super Micro
  • Colaboração com várias empresas como CARV, Magic Eden no domínio Web3

Phala Network

A Phala Network, como camada de execução para soluções de IA Web3, aborda questões de privacidade através de um Ambiente de Execução Confiável (TEE). Isso permite que agentes de IA sejam controlados por contratos inteligentes na blockchain.

Destaques:

  • Actuar como protocolo de coprocessador de computação verificável, permitindo que os agentes de IA acedam a recursos na cadeia.
  • Os contratos de代理 AI podem ser obtidos através da Redpill para os principais LLM como o OpenAI.
  • Futuramente incluirá sistemas de múltiplas provas como zk-proofs, MPC, FHE.
  • Planejamento para suportar GPUs TEE como H100, melhorando a capacidade de computação

Comparação de Projetos

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia | | Tipo de tarefa AI | Inferência | Bidirecional | Bidirecional | Treinamento | Treinamento | Execução | | Preço do trabalho | Baseado em desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de dados | Criptografia&Hash | Autenticação mTLS | Criptografia de dados | Mapeamento seguro | Criptografia | TEE | | Custos de trabalho | 0,5-5%/trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% reserva | Baixos custos | 20%/sessão | Proporcional ao staking | | Seguro | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia de Intermediação | | Prova de conclusão | - | - | Prova de bloqueio de tempo | Prova de aprendizagem | Prova de trabalho de renderização | Prova TEE | | Garantia de Qualidade | Mecanismo de Controvérsia | - | - | Validadores e Denúncias | Verificação de Nós | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |

AI e o ponto de interseção do DePIN

Importância

Disponibilidade de computação em cluster e paralela

A estrutura de computação distribuída implementa um cluster de GPU, proporcionando um treinamento mais eficiente e aumentando a escalabilidade. O treinamento de modelos de IA complexos exige uma poderosa capacidade computacional, geralmente dependendo da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilião de parâmetros, levando de 3 a 4 meses, utilizando 128 clusters com cerca de 25.000 GPUs Nvidia A100.

A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, já implementou mais de 3.800 clusters no Q1. Embora o Render não suporte clusters, ele decompõe um único quadro para ser processado simultaneamente em múltiplos nós. O Phala atualmente suporta apenas CPU, mas permite a agrupação de trabalhadores de CPU.

A estrutura de cluster é importante para redes de fluxo de trabalho de IA, mas o número e o tipo de GPUs de cluster que atendem às necessidades dos desenvolvedores de IA é outro problema.

Privacidade de dados

O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem envolver informações sensíveis. Os métodos de privacidade de dados são cruciais para proteger o controle sobre os dados.

A maioria dos projetos utiliza algum tipo de criptografia para proteger a privacidade dos dados. O Render utiliza criptografia e hash ao publicar os resultados de renderização. O io.net e o Gensyn adotam criptografia de dados. O Akash utiliza autenticação mTLS, permitindo apenas que fornecedores específicos recebam dados.

A io.net recentemente colaborou com a Mind Network para lançar criptografia totalmente homomórfica (FHE), permitindo o processamento direto de dados encriptados. Isso protege a privacidade melhor do que as tecnologias de criptografia existentes.

A Phala Network introduz um ambiente de execução confiável ( TEE ), isolando para evitar acesso ou modificação de dados externos. Também combina o uso de zk-proofs para integrar o programa RiscZero zkVM.

Prova de cálculo concluído e inspeção de qualidade

A prova de conclusão de cálculo indica que a GPU foi realmente utilizada para os serviços necessários, e a verificação de qualidade é benéfica para os usuários.

Gensyn e Aethir geram provas de trabalho concluídas, io.net prova que o desempenho da GPU está sendo plenamente utilizado. Gensyn e Aethir realizam verificações de qualidade. Gensyn reexecuta parte das provas com validadores, com denunciantes como verificação adicional. Aethir utiliza pontos de verificação para avaliar a qualidade do serviço. Render sugere usar o processo de resolução de disputas para lidar com nós problemáticos. Phala gera provas de TEE, garantindo que os agentes de IA executem as operações necessárias.

Dados Estatísticos de Hardware

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 quantidade | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |

AI e o ponto de interseção do DePIN

Demanda por GPU de alto desempenho

O treinamento de modelos de IA tende a usar GPUs de alto desempenho, como a Nvidia A100 e H100. O desempenho de inferência do H100 é 4 vezes superior ao do A100, tornando-se a escolha preferida de grandes empresas para treinar LLM.

Os fornecedores de mercado de GPU Descentralização não só precisam oferecer preços mais baixos, mas também atender às necessidades reais. Em 2023, a Nvidia entregou mais de 500 mil unidades do H100 a grandes empresas de tecnologia, tornando difícil a aquisição de hardware equivalente. É importante considerar a quantidade de hardware que o projeto pode introduzir a baixo custo.

Akash tem apenas mais de 150 H100 e A100, enquanto io.net e Aethir têm mais de 2000 cada. O pré-treinamento de LLMs normalmente requer de 248 a mais de 2000 clusters de GPU, sendo que os dois últimos projetos são mais adequados para cálculos de modelos grandes.

Atualmente, o custo dos serviços de GPU Descentralização já é inferior ao dos serviços centralizados. Gensyn e Aethir afirmam que a taxa de aluguel por hora do hardware de nível A100 é inferior a 1 dólar, mas ainda precisa ser verificado.

A conexão de rede de clusters de GPU é barata, mas a memória é limitada. O NVLink suporta comunicação direta entre GPUs, sendo adequado para LLMS com muitos parâmetros e grandes conjuntos de dados.

Apesar disso, a rede de GPU descentralizada ainda oferece uma poderosa capacidade e escalabilidade para computação distribuída, abrindo um cenário de oligopólio para a construção de mais casos de uso de IA e ML.

AI e o ponto de interseção do DePIN

Fornecer GPU/CPU de nível de consumo

A CPU também é muito importante no treinamento de modelos de IA, sendo utilizada para pré-processamento de dados e gerenciamento de memória. GPUs de consumo podem ser usadas para ajuste fino de modelos pré-treinados ou treinamento em pequena escala.

Considerando que mais de 85% dos consumidores têm GPUs ociosas, projetos como Render, Akash e io.net também podem atender a este mercado. Oferecer essas opções permite que eles desenvolvam uma posição de mercado única, focando em computação intensiva em larga escala, renderização em pequena escala ou modos híbridos.

Conclusão

A área de DePIN de IA ainda é relativamente nova e enfrenta desafios. Por exemplo, a io.net foi acusada de falsificar o número de GPUs, mas resolveu o problema ao introduzir a prova de trabalho.

Apesar disso, o número de tarefas e hardware executados na rede GPU Descentralização aumentou significativamente, destacando o crescimento da demanda por alternativas aos serviços de nuvem Web2. O aumento de fornecedores de hardware também mostra a oferta que anteriormente não foi totalmente aproveitada. Isso prova a adequação do mercado de produtos da rede AI DePIN, que efetivamente resolve os desafios de demanda e oferta.

Perspectivando o futuro, a IA desenvolver-se-á em um próspero mercado de trilhões de dólares, e estas redes de GPU descentralizadas proporcionarão aos desenvolvedores alternativas de computação economicamente eficientes. Ao continuar a reduzir a lacuna entre a demanda e a oferta, estas redes farão contribuições significativas para o futuro da IA e da infraestrutura de computação.

AI e o ponto de interseção do DePIN

AI e o ponto de interseção do DePIN

AI e o ponto de interseção do DePIN

AI e o ponto de interseção do DePIN

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Partilhar
Comentar
0/400
MEVHuntervip
· 13h atrás
investidor de retalho também pode ter uma parte
Ver originalResponder0
LiquidationWatchervip
· 13h atrás
Uma boa oportunidade
Ver originalResponder0
GateUser-4745f9cevip
· 13h atrás
Resolvido o problema da ansiedade por recursos.
Ver originalResponder0
SandwichHuntervip
· 14h atrás
Comprar cartões para Mineração é o momento certo
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)