AI e o ponto de interseção do DePIN: explorando o desenvolvimento de redes GPU descentralizadas
Desde 2023, a IA e o DePIN têm recebido muita atenção no campo do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo irá focar na interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN capacita a IA fornecendo recursos computacionais. Devido à escassez de GPUs causada pelo desenvolvimento de grandes empresas de tecnologia, outros desenvolvedores têm dificuldade em obter recursos de GPU suficientes para construir seus próprios modelos de IA. Tradicionalmente, os desenvolvedores optam por provedores de serviços em nuvem centralizados, mas isso geralmente requer a assinatura de contratos de longo prazo pouco flexíveis, o que resulta em baixa eficiência.
DePIN oferece uma alternativa mais flexível e econômica. Ele incentiva a contribuição de recursos através de recompensas em tokens, fazendo com que os recursos de GPU sejam crowdsourced de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam de hardware. Isso não apenas fornece aos desenvolvedores capacidade computacional personalizável e sob demanda, mas também oferece aos proprietários de GPU uma fonte adicional de renda.
Já existem várias redes DePIN de IA no mercado, cada uma com suas características. A seguir, vamos explorar as características e objetivos de alguns dos principais projetos, bem como alguns de seus resultados específicos.
Visão Geral da Rede DePIN de IA
Render é o pioneiro de uma rede P2P que oferece capacidade de computação GPU, inicialmente focado na renderização de criação de conteúdo, e depois expandiu seu escopo para tarefas de computação AI.
Características:
Fundada pela empresa de gráficos em nuvem OTOY, que possui tecnologia premiada com o Oscar
A rede GPU já está a ser utilizada por grandes empresas da indústria do entretenimento, como a Paramount Pictures, PUBG, entre outras.
Colaborar com a Stability AI e a Endeavor para integrar modelos de IA com fluxos de trabalho de renderização de conteúdo 3D
Aprovar múltiplos clientes de cálculo, integrar mais GPUs de redes DePIN
Akash é posicionado como uma alternativa de "super nuvem" que suporta armazenamento, computação GPU e CPU. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar software de forma contínua em diferentes ambientes e executar qualquer aplicação nativa da nuvem.
Características:
Para uma ampla gama de tarefas computacionais, desde computação geral até hospedagem na rede.
AkashML permite que sua rede GPU execute mais de 15.000 modelos na Hugging Face
Hospedou algumas aplicações conhecidas, como o chatbot do modelo LLM da Mistral AI, o modelo SDXL da Stability AI, entre outros.
Suporte para a construção de plataformas de metaverso, implantação de IA e aprendizado federado
io.net oferece acesso a clusters de GPU em nuvem distribuídos, especificamente para casos de uso de IA e ML. Ele agrega recursos de GPU de centros de dados, mineradores de criptomoedas e outras redes descentralizadas.
Características:
IO-SDK é compatível com frameworks como PyTorch e Tensorflow, e a arquitetura em múltiplas camadas pode ser expandida dinamicamente de acordo com as necessidades.
Suporta a criação de 3 tipos diferentes de clusters, que podem ser iniciados em 2 minutos
Colaborar com várias redes DePIN, como Render, Filecoin e Aethir, integrando recursos de GPU
Gensyn oferece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Através de um mecanismo de validação inovador, aumenta a eficiência.
Características:
O custo por hora de um GPU equivalente ao V100 é de aproximadamente 0,40 dólares, resultando em uma grande economia de custos.
Através da prova de pilha, é possível ajustar modelos base pré-treinados.
Estes modelos básicos serão descentralizados e de propriedade global.
Aethir é especializado em GPUs empresariais, focando em áreas de computação intensiva, como IA, ML e jogos na nuvem. Os contêineres na sua rede atuam como pontos finais virtuais para a execução de aplicativos baseados na nuvem.
Características:
Além de AI e jogos na nuvem, também se expandiu para serviços de smartphone na nuvem, lançando um smartphone inteligente na nuvem descentralizada em colaboração com a APhone.
Estabelecer uma ampla colaboração com grandes empresas Web2 como NVIDIA, Super Micro, HPE
Colaboração com vários projetos Web3, como CARV e Magic Eden
Phala Network como a camada de execução da solução Web3 AI. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através de um ambiente de execução confiável (TEE).
Características:
Actuar como um protocolo de coprocessador verificável, permitindo que agentes de IA acessem recursos na blockchain.
Os contratos de IA podem acessar os principais modelos de linguagem, como OpenAI e Llama, através do Redpill.
O futuro incluirá sistemas de provas múltiplas como zk-proofs, computação multipartidária e criptografia homomórfica completa.
No futuro, suporte para outros GPUs TEE como H100, aumentando a capacidade de computação
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Foco de Negócio | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA na Blockchain |
| Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução |
| Preço do Trabalho | Preço Baseado em Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Participação |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE |
| Custos de Trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao valor em staking |
| Segurança | Prova de renderização | Prova de participação | Prova de cálculo | Prova de participação | Prova de capacidade de renderização | Herdado da cadeia de retransmissão |
| Prova de Conclusão | - | - | Prova de Bloqueio Temporal | Prova de Aprendizado | Prova de Trabalho de Renderização | Prova de TEE |
| Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó Verificador | Prova Remota |
| GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
importância
Disponibilidade de clusters e computação paralela
A estrutura de computação distribuída implementou um cluster de GPUs, proporcionando um treinamento mais eficiente sem comprometer a precisão do modelo, ao mesmo tempo que aumentou a escalabilidade. O treinamento de modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependente da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilião de parâmetros e foi treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.
A maioria dos projetos principais já integrou clusters para permitir computação paralela. A io.net colaborou com projetos como Render, Filecoin e Aethir para incorporar mais GPUs à sua rede, e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora o Render não suporte clusters, seu funcionamento é semelhante, decompondo um único quadro em vários nós para processamento simultâneo. A Phala atualmente suporta apenas CPU, mas permite a formação de clusters de trabalhadores de CPU.
Privacidade de Dados
Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem conter informações sensíveis. Garantir a privacidade dos dados é crucial para devolver o controle dos dados aos fornecedores de dados.
A maioria dos projetos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. A Render utiliza criptografia e processamento de hash ao publicar os resultados de renderização, a io.net e a Gensyn adotam criptografia de dados, e a Akash utiliza autenticação mTLS.
A io.net recentemente colaborou com a Mind Network para lançar a criptografia totalmente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de os descriptografar primeiro. A Phala Network introduziu o ambiente de execução confiável (TEE), que impede processos externos de aceder ou modificar dados.
Prova de Cálculo Completo e Inspeção de Qualidade
Devido ao fato de que as GPUs fornecidas por esses projetos podem ser utilizadas para uma ampla gama de serviços, desde a renderização de gráficos até o cálculo de IA, é necessário concluir mecanismos de prova e verificação de qualidade.
Gensyn e Aethir geram provas após a conclusão dos cálculos, e a prova do io.net indica que o desempenho da GPU alugada foi plenamente utilizado. Gensyn e Aethir realizam uma verificação de qualidade dos cálculos concluídos. O Render sugere a utilização de um processo de resolução de disputas. Após a conclusão do Phala, será gerada uma prova TEE, garantindo que o agente de IA execute as operações necessárias na cadeia.
O treinamento de modelos de IA requer GPUs com desempenho ideal, como as A100 e H100 da Nvidia. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-se a GPU preferida, especialmente para grandes empresas que estão treinando seus próprios LLMs.
Os fornecedores de mercado de GPU descentralizado, para competir com seus pares da Web2, não só precisam oferecer preços mais baixos, mas também atender às necessidades reais do mercado. Em 2023, a Nvidia entregou mais de 500.000 unidades do H100 a grandes empresas de tecnologia centralizadas, o que dificultou a obtenção de hardware equivalente.
A io.net e a Aethir possuem mais de 2000 unidades H100 e A100 cada, sendo mais adequadas para cálculos de grandes modelos. De acordo com o tamanho do cluster necessário pelos desenvolvedores, atualmente o custo desses serviços de GPU descentralizados é muito mais baixo do que o dos serviços de GPU centralizados.
Apesar de os clusters de GPU conectados à rede terem limitações de memória, as redes de GPU descentralizadas ainda podem oferecer uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, para usuários que precisam de flexibilidade e da capacidade de distribuir cargas de trabalho entre vários nós.
Fornecer GPU/CPU de nível de consumo
A CPU desempenha um papel importante no treinamento de modelos de IA, podendo ser utilizada em várias etapas, desde o pré-processamento de dados até a gestão de recursos de memória. GPUs de consumo podem ser utilizadas para tarefas menos intensivas, como ajustar modelos pré-treinados ou treinar modelos de pequeno porte em pequenos conjuntos de dados.
Considerando que mais de 85% dos consumidores de recursos GPU estão inativos, projetos como Render, Akash e io.net também podem atender a esse mercado. Oferecer essas opções permite que eles desenvolvam seu próprio posicionamento de mercado, focando em computação intensiva em larga escala, renderização em pequena escala ou uma combinação de ambos.
Conclusão
O campo de AI DePIN ainda é relativamente emergente e enfrenta seus próprios desafios. No entanto, o número de tarefas executadas e de hardware nas redes GPU descentralizadas aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Ao mesmo tempo, o aumento dos fornecedores de hardware também mostra uma oferta anteriormente subutilizada. Isso comprova ainda mais a adequação do mercado de produtos da rede AI DePIN, resolvendo efetivamente os desafios de demanda e oferta.
Olhando para o futuro, espera-se que a IA se desenvolva em um mercado próspero de trilhões de dólares. Essas redes de GPU descentralizadas desempenharão um papel fundamental ao fornecer soluções de computação econômicas para os desenvolvedores. Ao continuar a reduzir a lacuna entre a demanda e a oferta, essas redes farão uma contribuição significativa para o futuro da IA e da infraestrutura computacional.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
14 Curtidas
Recompensa
14
7
Compartilhar
Comentário
0/400
LiquidationWatcher
· 9h atrás
É evidente que a GPU ainda é uma vitória centralizada.
Ver originalResponder0
MidnightSeller
· 9h atrás
Ah, isto... A GPU vai ter um bull run novamente?
Ver originalResponder0
AirdropworkerZhang
· 9h atrás
A verdade é que quem ainda faz AI agora não está todos indo para o DePIN?
Ver originalResponder0
AirdropHunterKing
· 9h atrás
fazer as pessoas de parvas N airdrops estão a caminho
Ver originalResponder0
CoconutWaterBoy
· 9h atrás
Falta de GPU? É como procurar um mineiro com uma lanterna.
Ver originalResponder0
Layer2Arbitrageur
· 9h atrás
*bocejos* apenas mais um ganho de eficiência de 300bps... acorda-me quando atingirmos taxas de utilização de gpu de 10x
AI e a colisão do DePIN: explorando o desenvolvimento de redes GPU descentralizadas
AI e o ponto de interseção do DePIN: explorando o desenvolvimento de redes GPU descentralizadas
Desde 2023, a IA e o DePIN têm recebido muita atenção no campo do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo irá focar na interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN capacita a IA fornecendo recursos computacionais. Devido à escassez de GPUs causada pelo desenvolvimento de grandes empresas de tecnologia, outros desenvolvedores têm dificuldade em obter recursos de GPU suficientes para construir seus próprios modelos de IA. Tradicionalmente, os desenvolvedores optam por provedores de serviços em nuvem centralizados, mas isso geralmente requer a assinatura de contratos de longo prazo pouco flexíveis, o que resulta em baixa eficiência.
DePIN oferece uma alternativa mais flexível e econômica. Ele incentiva a contribuição de recursos através de recompensas em tokens, fazendo com que os recursos de GPU sejam crowdsourced de proprietários individuais para centros de dados, formando uma oferta unificada para usuários que precisam de hardware. Isso não apenas fornece aos desenvolvedores capacidade computacional personalizável e sob demanda, mas também oferece aos proprietários de GPU uma fonte adicional de renda.
Já existem várias redes DePIN de IA no mercado, cada uma com suas características. A seguir, vamos explorar as características e objetivos de alguns dos principais projetos, bem como alguns de seus resultados específicos.
Visão Geral da Rede DePIN de IA
Render é o pioneiro de uma rede P2P que oferece capacidade de computação GPU, inicialmente focado na renderização de criação de conteúdo, e depois expandiu seu escopo para tarefas de computação AI.
Características:
Akash é posicionado como uma alternativa de "super nuvem" que suporta armazenamento, computação GPU e CPU. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar software de forma contínua em diferentes ambientes e executar qualquer aplicação nativa da nuvem.
Características:
io.net oferece acesso a clusters de GPU em nuvem distribuídos, especificamente para casos de uso de IA e ML. Ele agrega recursos de GPU de centros de dados, mineradores de criptomoedas e outras redes descentralizadas.
Características:
Gensyn oferece capacidade de computação GPU focada em aprendizado de máquina e aprendizado profundo. Através de um mecanismo de validação inovador, aumenta a eficiência.
Características:
Aethir é especializado em GPUs empresariais, focando em áreas de computação intensiva, como IA, ML e jogos na nuvem. Os contêineres na sua rede atuam como pontos finais virtuais para a execução de aplicativos baseados na nuvem.
Características:
Phala Network como a camada de execução da solução Web3 AI. Sua blockchain é uma solução de computação em nuvem sem necessidade de confiança, projetada para lidar com questões de privacidade através de um ambiente de execução confiável (TEE).
Características:
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócio | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA na Blockchain | | Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução | | Preço do Trabalho | Preço Baseado em Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Participação | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de Trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao valor em staking | | Segurança | Prova de renderização | Prova de participação | Prova de cálculo | Prova de participação | Prova de capacidade de renderização | Herdado da cadeia de retransmissão | | Prova de Conclusão | - | - | Prova de Bloqueio Temporal | Prova de Aprendizado | Prova de Trabalho de Renderização | Prova de TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó Verificador | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
importância
Disponibilidade de clusters e computação paralela
A estrutura de computação distribuída implementou um cluster de GPUs, proporcionando um treinamento mais eficiente sem comprometer a precisão do modelo, ao mesmo tempo que aumentou a escalabilidade. O treinamento de modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependente da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilião de parâmetros e foi treinado em 3-4 meses utilizando cerca de 25.000 GPUs Nvidia A100 em 128 clusters.
A maioria dos projetos principais já integrou clusters para permitir computação paralela. A io.net colaborou com projetos como Render, Filecoin e Aethir para incorporar mais GPUs à sua rede, e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora o Render não suporte clusters, seu funcionamento é semelhante, decompondo um único quadro em vários nós para processamento simultâneo. A Phala atualmente suporta apenas CPU, mas permite a formação de clusters de trabalhadores de CPU.
Privacidade de Dados
Desenvolver modelos de IA requer o uso de grandes conjuntos de dados, que podem conter informações sensíveis. Garantir a privacidade dos dados é crucial para devolver o controle dos dados aos fornecedores de dados.
A maioria dos projetos utiliza alguma forma de criptografia de dados para proteger a privacidade dos dados. A Render utiliza criptografia e processamento de hash ao publicar os resultados de renderização, a io.net e a Gensyn adotam criptografia de dados, e a Akash utiliza autenticação mTLS.
A io.net recentemente colaborou com a Mind Network para lançar a criptografia totalmente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de os descriptografar primeiro. A Phala Network introduziu o ambiente de execução confiável (TEE), que impede processos externos de aceder ou modificar dados.
Prova de Cálculo Completo e Inspeção de Qualidade
Devido ao fato de que as GPUs fornecidas por esses projetos podem ser utilizadas para uma ampla gama de serviços, desde a renderização de gráficos até o cálculo de IA, é necessário concluir mecanismos de prova e verificação de qualidade.
Gensyn e Aethir geram provas após a conclusão dos cálculos, e a prova do io.net indica que o desempenho da GPU alugada foi plenamente utilizado. Gensyn e Aethir realizam uma verificação de qualidade dos cálculos concluídos. O Render sugere a utilização de um processo de resolução de disputas. Após a conclusão do Phala, será gerada uma prova TEE, garantindo que o agente de IA execute as operações necessárias na cadeia.
Dados estatísticos de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPUs | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | Quantidade H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | A100 custo/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |
Requisitos de GPU de alto desempenho
O treinamento de modelos de IA requer GPUs com desempenho ideal, como as A100 e H100 da Nvidia. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-se a GPU preferida, especialmente para grandes empresas que estão treinando seus próprios LLMs.
Os fornecedores de mercado de GPU descentralizado, para competir com seus pares da Web2, não só precisam oferecer preços mais baixos, mas também atender às necessidades reais do mercado. Em 2023, a Nvidia entregou mais de 500.000 unidades do H100 a grandes empresas de tecnologia centralizadas, o que dificultou a obtenção de hardware equivalente.
A io.net e a Aethir possuem mais de 2000 unidades H100 e A100 cada, sendo mais adequadas para cálculos de grandes modelos. De acordo com o tamanho do cluster necessário pelos desenvolvedores, atualmente o custo desses serviços de GPU descentralizados é muito mais baixo do que o dos serviços de GPU centralizados.
Apesar de os clusters de GPU conectados à rede terem limitações de memória, as redes de GPU descentralizadas ainda podem oferecer uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, para usuários que precisam de flexibilidade e da capacidade de distribuir cargas de trabalho entre vários nós.
Fornecer GPU/CPU de nível de consumo
A CPU desempenha um papel importante no treinamento de modelos de IA, podendo ser utilizada em várias etapas, desde o pré-processamento de dados até a gestão de recursos de memória. GPUs de consumo podem ser utilizadas para tarefas menos intensivas, como ajustar modelos pré-treinados ou treinar modelos de pequeno porte em pequenos conjuntos de dados.
Considerando que mais de 85% dos consumidores de recursos GPU estão inativos, projetos como Render, Akash e io.net também podem atender a esse mercado. Oferecer essas opções permite que eles desenvolvam seu próprio posicionamento de mercado, focando em computação intensiva em larga escala, renderização em pequena escala ou uma combinação de ambos.
Conclusão
O campo de AI DePIN ainda é relativamente emergente e enfrenta seus próprios desafios. No entanto, o número de tarefas executadas e de hardware nas redes GPU descentralizadas aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Ao mesmo tempo, o aumento dos fornecedores de hardware também mostra uma oferta anteriormente subutilizada. Isso comprova ainda mais a adequação do mercado de produtos da rede AI DePIN, resolvendo efetivamente os desafios de demanda e oferta.
Olhando para o futuro, espera-se que a IA se desenvolva em um mercado próspero de trilhões de dólares. Essas redes de GPU descentralizadas desempenharão um papel fundamental ao fornecer soluções de computação econômicas para os desenvolvedores. Ao continuar a reduzir a lacuna entre a demanda e a oferta, essas redes farão uma contribuição significativa para o futuro da IA e da infraestrutura computacional.