AI e a Interseção do DePIN: a Ascensão das Redes GPU Descentralizadas
Recentemente, a inteligência artificial e a Descentralização da Infraestrutura Física ( DePIN ) tornaram-se tópicos populares no campo do Web3, com um valor de mercado de 30 bilhões de dólares e 23 bilhões de dólares, respetivamente. Este artigo explorará a interseção entre os dois, estudando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN capacita a IA ao fornecer recursos de computação. Devido à escassez de GPUs causada por grandes empresas de tecnologia, outras equipes que desenvolvem modelos de IA têm dificuldade em obter poder computacional GPU suficiente. A abordagem tradicional é escolher fornecedores de serviços em nuvem centralizados, mas é necessário assinar contratos de longo prazo inflexíveis, o que resulta em ineficiência.
DePIN oferece uma solução alternativa mais flexível e econômica, incentivando a contribuição de recursos através de recompensas em tokens. O DePIN na área de IA integra recursos de GPU de proprietários individuais em centros de dados, proporcionando uma oferta unificada para os usuários. Isso não apenas oferece aos desenvolvedores poder computacional personalizado e sob demanda, mas também cria uma renda adicional para os proprietários de GPU.
Atualmente, existem várias redes AI DePIN no mercado, cada uma com suas características. A seguir, vamos explorar a função, os objetivos e as conquistas de cada protocolo, a fim de entender melhor as diferenças entre eles.
Visão Geral da Rede DePIN de IA
Render é o pioneiro da rede de computação GPU P2P, inicialmente focado em renderização de criação de conteúdo, e depois expandiu para tarefas de computação em AI. O projeto foi fundado pela empresa de gráficos em nuvem OTOY, que recebeu o Prêmio Técnico Oscar, e sua rede GPU já foi utilizada por grandes empresas como a Paramount e PUBG. A Render também colabora com a Stability AI para integrar modelos de AI ao fluxo de renderização de conteúdo 3D.
Akash é posicionado como uma plataforma de "super nuvem" que suporta armazenamento, computação GPU e CPU. Utiliza nós de computação geridos por plataformas de contêiner e Kubernetes, permitindo a implantação de software de forma perfeita em diferentes ambientes. Aplicações como o chatbot LLM da Mistral AI e o modelo de geração de imagens de texto da Stability AI estão em execução no Akash.
io.net fornece um cluster de nuvem distribuído de GPU dedicado à IA e ao aprendizado de máquina. A empresa era originalmente uma empresa de negociação quantitativa, mas se transformou no negócio atual. Seu IO-SDK é compatível com frameworks como PyTorch e TensorFlow, e a arquitetura em múltiplas camadas pode ser dinamicamente expandida conforme a demanda. A io.net também integrou recursos de GPU em colaboração com Render, Filecoin e outros.
Gensyn foca em redes GPU para computação em aprendizado de máquina e aprendizado profundo. Ele implementa um mecanismo de validação eficiente através de técnicas como prova de aprendizado e protocolos de localização precisa baseados em grafos. O Gensyn pode ajustar modelos de base pré-treinados para realizar tarefas mais específicas.
Aethir fornece GPUs de nível empresarial, principalmente para áreas de computação intensiva como IA, aprendizado de máquina e jogos em nuvem. Os contêineres na sua rede atuam como pontos finais virtuais para aplicações em nuvem, transferindo a carga de trabalho de dispositivos locais para os contêineres, proporcionando uma experiência de baixa latência. Aethir também se expandiu para serviços de telefone em nuvem, estabelecendo parcerias com várias empresas Web2 e Web3.
Phala Network como camada de execução para soluções de IA Web3, aborda questões de privacidade através de ambientes de execução confiáveis (TEE). Permite que agentes de IA sejam controlados por contratos inteligentes na blockchain e planeja suportar GPUs TEE como H100 no futuro para melhorar a capacidade computacional.
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Foco de Negócio | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia |
| Tipo de Tarefa de IA | Inferência | Ambos podem | Ambos podem | Treinamento | Treinamento | Execução |
| Preço do trabalho | Preço baseado no desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidade de dados | Criptografia&Hash | Autenticação mTLS | Criptografia de dados | Mapeamento seguro | Criptografia | TEE |
| Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao montante em staking |
| Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária |
| Prova de Conclusão | - | - | Prova de Bloqueio Temporal | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE |
| Garantia de Qualidade | Controvérsia | - | - | Verificadores e Denunciantes | Nós de Verificação | Prova Remota |
| GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de clusters e computação paralela
O framework de computação distribuída implementou um cluster de GPU, melhorando a eficiência de treinamento e a escalabilidade enquanto garante a precisão do modelo. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependendo da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI tem mais de 1,8 trilhões de parâmetros e foi treinado em cerca de 25.000 GPUs Nvidia A100 ao longo de 3 a 4 meses.
A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, já implementou mais de 3.800 clusters no primeiro trimestre de 24. Embora o Render não suporte clusters, seu funcionamento é semelhante, decompondo um único quadro em vários nós para processamento simultâneo. A Phala atualmente suporta apenas CPU, mas permite a clusterização de trabalhadores de CPU.
Privacidade de Dados
O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem envolver informações sensíveis. Garantir a privacidade dos dados é crucial para devolver o controle dos dados aos provedores. A maioria dos projetos adota alguma forma de criptografia de dados. A io.net lançou recentemente uma colaboração com a Mind Network para introduzir a criptografia homomórfica totalmente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de os decifrar. A Phala Network introduziu ambientes de execução confiáveis (TEE), que impedem processos externos de acessar ou modificar dados.
Prova de cálculo concluído e verificação de qualidade
Devido à ampla gama de serviços, desde renderização até cálculo em IA, a qualidade final pode não corresponder sempre aos padrões dos usuários. A conclusão de provas e inspeções de qualidade é benéfica para os usuários. As provas geradas pela Gensyn e Aethir indicam que o trabalho foi concluído e que uma inspeção de qualidade foi realizada. As provas da io.net indicam que o desempenho da GPU alugada foi totalmente utilizado. A Render recomenda o uso de um processo de resolução de disputas para penalizar nós que apresentem problemas. A Phala gera provas TEE, garantindo que os agentes de IA executem as operações necessárias.
Os modelos de IA tendem a usar GPUs de alto desempenho, como a A100 e a H100 da Nvidia, para treinamento. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-se a escolha preferida para grandes empresas que treinam LLMs. Os fornecedores de mercado de GPUs descentralizadas precisam fornecer um número suficiente de hardware de alto desempenho para competir com os concorrentes do Web2. A io.net e a Aethir possuem mais de 2000 unidades H100 e A100 cada, sendo mais adequadas para cálculos de modelos grandes.
O custo dos serviços de GPU descentralizados já é muito inferior ao dos serviços centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware equivalente ao A100 por menos de 1 dólar por hora. No entanto, os clusters de GPU conectados à rede podem ter limitações de memória, não sendo tão adequados quanto as GPUs conectadas via NVLink para modelos de linguagem com um grande número de parâmetros e conjuntos de dados.
Apesar disso, a rede GPU descentralizada ainda oferece uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, abrindo oportunidades para construir mais casos de uso de IA e ML.
fornece GPU/CPU de nível de consumo
Embora a GPU seja a principal unidade de processamento, a CPU também desempenha um papel importante no treinamento de modelos de IA. GPUs de consumo podem ser usadas para tarefas de menor escala, como o ajuste fino de modelos pré-treinados ou o treinamento de modelos pequenos em conjuntos de dados reduzidos. Projetos como Render, Akash e io.net também atendem a este mercado, aproveitando os recursos de GPU de consumidores ociosos.
Conclusão
O campo da DePIN de IA ainda é relativamente emergente e enfrenta desafios. No entanto, o número de tarefas executadas e de hardware nessas redes aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Essa tendência prova a adequação do mercado de produtos das redes DePIN de IA, resolvendo efetivamente os desafios em termos de demanda e oferta.
Olhando para o futuro, a IA tem o potencial de se tornar um mercado próspero de trilhões de dólares. Estas redes de GPU descentralizadas desempenharão um papel crucial em fornecer alternativas de computação econômicas para os desenvolvedores, contribuindo significativamente para o futuro da infraestrutura de IA e computação.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
5 gostos
Recompensa
5
4
Partilhar
Comentar
0/400
ContractFreelancer
· 4h atrás
Boa rapaz! Boa rapaz! Mais uma vez é a pista de roubo de dinheiro.
Ver originalResponder0
MintMaster
· 12h atrás
A visão está pequena, 30 bilhões é apenas o começo~
Ver originalResponder0
RugDocDetective
· 12h atrás
Mais uma coisa que quer fazer as pessoas de parvas pro.
Ver originalResponder0
CryptoGoldmine
· 12h atrás
Os dados falam: o retorno médio diário da GPU já ultrapassou 30% ROI, adequado para Criar uma posição.
A interseção entre AI e DePIN: a ascensão das redes GPU descentralizadas remodela um mercado de 30 mil milhões de dólares
AI e a Interseção do DePIN: a Ascensão das Redes GPU Descentralizadas
Recentemente, a inteligência artificial e a Descentralização da Infraestrutura Física ( DePIN ) tornaram-se tópicos populares no campo do Web3, com um valor de mercado de 30 bilhões de dólares e 23 bilhões de dólares, respetivamente. Este artigo explorará a interseção entre os dois, estudando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN capacita a IA ao fornecer recursos de computação. Devido à escassez de GPUs causada por grandes empresas de tecnologia, outras equipes que desenvolvem modelos de IA têm dificuldade em obter poder computacional GPU suficiente. A abordagem tradicional é escolher fornecedores de serviços em nuvem centralizados, mas é necessário assinar contratos de longo prazo inflexíveis, o que resulta em ineficiência.
DePIN oferece uma solução alternativa mais flexível e econômica, incentivando a contribuição de recursos através de recompensas em tokens. O DePIN na área de IA integra recursos de GPU de proprietários individuais em centros de dados, proporcionando uma oferta unificada para os usuários. Isso não apenas oferece aos desenvolvedores poder computacional personalizado e sob demanda, mas também cria uma renda adicional para os proprietários de GPU.
Atualmente, existem várias redes AI DePIN no mercado, cada uma com suas características. A seguir, vamos explorar a função, os objetivos e as conquistas de cada protocolo, a fim de entender melhor as diferenças entre eles.
Visão Geral da Rede DePIN de IA
Render é o pioneiro da rede de computação GPU P2P, inicialmente focado em renderização de criação de conteúdo, e depois expandiu para tarefas de computação em AI. O projeto foi fundado pela empresa de gráficos em nuvem OTOY, que recebeu o Prêmio Técnico Oscar, e sua rede GPU já foi utilizada por grandes empresas como a Paramount e PUBG. A Render também colabora com a Stability AI para integrar modelos de AI ao fluxo de renderização de conteúdo 3D.
Akash é posicionado como uma plataforma de "super nuvem" que suporta armazenamento, computação GPU e CPU. Utiliza nós de computação geridos por plataformas de contêiner e Kubernetes, permitindo a implantação de software de forma perfeita em diferentes ambientes. Aplicações como o chatbot LLM da Mistral AI e o modelo de geração de imagens de texto da Stability AI estão em execução no Akash.
io.net fornece um cluster de nuvem distribuído de GPU dedicado à IA e ao aprendizado de máquina. A empresa era originalmente uma empresa de negociação quantitativa, mas se transformou no negócio atual. Seu IO-SDK é compatível com frameworks como PyTorch e TensorFlow, e a arquitetura em múltiplas camadas pode ser dinamicamente expandida conforme a demanda. A io.net também integrou recursos de GPU em colaboração com Render, Filecoin e outros.
Gensyn foca em redes GPU para computação em aprendizado de máquina e aprendizado profundo. Ele implementa um mecanismo de validação eficiente através de técnicas como prova de aprendizado e protocolos de localização precisa baseados em grafos. O Gensyn pode ajustar modelos de base pré-treinados para realizar tarefas mais específicas.
Aethir fornece GPUs de nível empresarial, principalmente para áreas de computação intensiva como IA, aprendizado de máquina e jogos em nuvem. Os contêineres na sua rede atuam como pontos finais virtuais para aplicações em nuvem, transferindo a carga de trabalho de dispositivos locais para os contêineres, proporcionando uma experiência de baixa latência. Aethir também se expandiu para serviços de telefone em nuvem, estabelecendo parcerias com várias empresas Web2 e Web3.
Phala Network como camada de execução para soluções de IA Web3, aborda questões de privacidade através de ambientes de execução confiáveis (TEE). Permite que agentes de IA sejam controlados por contratos inteligentes na blockchain e planeja suportar GPUs TEE como H100 no futuro para melhorar a capacidade computacional.
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócio | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | Inteligência Artificial, Jogos em Nuvem e Telecomunicações | Execução de IA em Cadeia | | Tipo de Tarefa de IA | Inferência | Ambos podem | Ambos podem | Treinamento | Treinamento | Execução | | Preço do trabalho | Preço baseado no desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de dados | Criptografia&Hash | Autenticação mTLS | Criptografia de dados | Mapeamento seguro | Criptografia | TEE | | Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao montante em staking | | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária | | Prova de Conclusão | - | - | Prova de Bloqueio Temporal | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificadores e Denunciantes | Nós de Verificação | Prova Remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de clusters e computação paralela
O framework de computação distribuída implementou um cluster de GPU, melhorando a eficiência de treinamento e a escalabilidade enquanto garante a precisão do modelo. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependendo da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI tem mais de 1,8 trilhões de parâmetros e foi treinado em cerca de 25.000 GPUs Nvidia A100 ao longo de 3 a 4 meses.
A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, já implementou mais de 3.800 clusters no primeiro trimestre de 24. Embora o Render não suporte clusters, seu funcionamento é semelhante, decompondo um único quadro em vários nós para processamento simultâneo. A Phala atualmente suporta apenas CPU, mas permite a clusterização de trabalhadores de CPU.
Privacidade de Dados
O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem envolver informações sensíveis. Garantir a privacidade dos dados é crucial para devolver o controle dos dados aos provedores. A maioria dos projetos adota alguma forma de criptografia de dados. A io.net lançou recentemente uma colaboração com a Mind Network para introduzir a criptografia homomórfica totalmente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de os decifrar. A Phala Network introduziu ambientes de execução confiáveis (TEE), que impedem processos externos de acessar ou modificar dados.
Prova de cálculo concluído e verificação de qualidade
Devido à ampla gama de serviços, desde renderização até cálculo em IA, a qualidade final pode não corresponder sempre aos padrões dos usuários. A conclusão de provas e inspeções de qualidade é benéfica para os usuários. As provas geradas pela Gensyn e Aethir indicam que o trabalho foi concluído e que uma inspeção de qualidade foi realizada. As provas da io.net indicam que o desempenho da GPU alugada foi totalmente utilizado. A Render recomenda o uso de um processo de resolução de disputas para penalizar nós que apresentem problemas. A Phala gera provas TEE, garantindo que os agentes de IA executem as operações necessárias.
Estatísticas de Hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 quantidade | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | A100 custo/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |
Requisitos de GPU de alto desempenho
Os modelos de IA tendem a usar GPUs de alto desempenho, como a A100 e a H100 da Nvidia, para treinamento. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-se a escolha preferida para grandes empresas que treinam LLMs. Os fornecedores de mercado de GPUs descentralizadas precisam fornecer um número suficiente de hardware de alto desempenho para competir com os concorrentes do Web2. A io.net e a Aethir possuem mais de 2000 unidades H100 e A100 cada, sendo mais adequadas para cálculos de modelos grandes.
O custo dos serviços de GPU descentralizados já é muito inferior ao dos serviços centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware equivalente ao A100 por menos de 1 dólar por hora. No entanto, os clusters de GPU conectados à rede podem ter limitações de memória, não sendo tão adequados quanto as GPUs conectadas via NVLink para modelos de linguagem com um grande número de parâmetros e conjuntos de dados.
Apesar disso, a rede GPU descentralizada ainda oferece uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, abrindo oportunidades para construir mais casos de uso de IA e ML.
fornece GPU/CPU de nível de consumo
Embora a GPU seja a principal unidade de processamento, a CPU também desempenha um papel importante no treinamento de modelos de IA. GPUs de consumo podem ser usadas para tarefas de menor escala, como o ajuste fino de modelos pré-treinados ou o treinamento de modelos pequenos em conjuntos de dados reduzidos. Projetos como Render, Akash e io.net também atendem a este mercado, aproveitando os recursos de GPU de consumidores ociosos.
Conclusão
O campo da DePIN de IA ainda é relativamente emergente e enfrenta desafios. No entanto, o número de tarefas executadas e de hardware nessas redes aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Essa tendência prova a adequação do mercado de produtos das redes DePIN de IA, resolvendo efetivamente os desafios em termos de demanda e oferta.
Olhando para o futuro, a IA tem o potencial de se tornar um mercado próspero de trilhões de dólares. Estas redes de GPU descentralizadas desempenharão um papel crucial em fornecer alternativas de computação econômicas para os desenvolvedores, contribuindo significativamente para o futuro da infraestrutura de IA e computação.