L'intersection de l'IA et de DePIN : L'essor des réseaux GPU décentralisés
Récemment, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article se concentrera sur le domaine d'intersection des deux, en explorant le développement des protocoles connexes.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. En raison de la pénurie de GPU causée par de grandes entreprises technologiques, d'autres développeurs ont du mal à obtenir suffisamment de GPU pour le calcul des modèles d'IA. La pratique traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles, ce qui est inefficace.
DePIN offre une alternative plus flexible et rentable, incitant à la contribution des ressources par des récompenses en tokens. Dans le domaine de l'IA, DePIN intègre les ressources GPU personnelles dans des centres de données, fournissant une offre unifiée aux utilisateurs. Cela offre non seulement aux développeurs des services personnalisés à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.
Il existe plusieurs réseaux AI DePIN sur le marché, cet article analysera les fonctionnalités, les objectifs et les réalisations de chaque protocole, ainsi que les différences entre eux.
Aperçu du réseau DePIN basé sur l'IA
Rendre
Render est le pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu de création de contenu, puis élargissant ses tâches de calcul AI grâce à l'intégration d'outils tels que Stable Diffusion.
Points forts:
Fondée par la société OTOY, lauréate d'un prix Oscar.
Paramount Pictures, des géants du secteur du divertissement comme PUBG, utilisent leur réseau GPU
Collaborer avec des entreprises comme Stability AI pour intégrer des modèles d'IA dans les flux de travail de rendu de contenu 3D
Approuver plusieurs clients de calcul, intégrer plus de GPU des réseaux DePIN
Akash
Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, remplaçant des fournisseurs de services traditionnels comme AWS. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il est possible de déployer sans effort n'importe quelle application cloud native.
Points forts :
Ciblant un large éventail de tâches de calcul, de l'informatique générale à l'hébergement web
AkashML permet d'exécuter plus de 15 000 modèles sur Hugging Face.
Applications telles que le chatbot LLM de Mistral AI, SDXL de Stability AI, etc.
Métavers, déploiement d'IA et plateforme d'apprentissage fédéré utilisant son Supercloud
io.net
io.net propose un cluster de cloud GPU distribué, spécialement conçu pour les scénarios d'IA et de ML. Il intègre les ressources GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres domaines.
Points forts:
IO-SDK compatible avec des frameworks tels que PyTorch, l'architecture à plusieurs niveaux peut s'étendre automatiquement en fonction des besoins.
Prend en charge la création de 3 types différents de clusters, démarrage en moins de 2 minutes.
Collaborer avec Render, Filecoin et d'autres pour intégrer davantage de ressources GPU
Gensyn
Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Améliorez l'efficacité de la validation grâce à des mécanismes tels que la preuve d'apprentissage.
Points forts :
Le coût horaire d'un GPU V100 est d'environ 0,40 USD, ce qui permet d'importantes économies.
Grâce à la superposition de preuves, il est possible d'affiner le modèle de base pré-entraîné.
Le modèle de base sera Décentralisation, possédé à l'échelle mondiale, offrant des fonctionnalités supplémentaires
Aethir
Aethir est spécialement équipé de GPU de niveau entreprise, se concentrant sur des domaines intensifs en calcul tels que l'IA, le ML et les jeux cloud. Il transfère les charges de travail du local vers le cloud via des conteneurs, réalisant ainsi une faible latence.
Points forts:
Étendre le service de cloud mobile, en collaboration avec APhone pour lancer un cloud mobile décentralisé.
Établir une large coopération avec des géants du Web2 comme NVIDIA, Super Micro.
En collaboration avec plusieurs entreprises comme CARV, Magic Eden dans le domaine du Web3.
Phala Network
Phala Network en tant que couche d'exécution de solution AI Web3, traite les problèmes de confidentialité via l'environnement d'exécution de confiance (TEE). Cela permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Points forts :
Agir en tant que protocole de coprocesseur de calcul vérifiable, permettant aux agents IA d'accéder aux ressources sur la chaîne.
Les contrats d'agent IA peuvent être obtenus via Redpill pour des LLM de premier plan comme OpenAI.
Intégration future des systèmes de preuve multiples tels que zk-proofs, MPC, FHE.
Prévoir le support des GPU TEE tels que H100, pour améliorer la capacité de calcul.
Comparaison des projets
| | Rendu | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|-------------------|---------------------|---------|---------------|----------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points clés | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, cloud gaming et télécommunications | Exécution IA sur chaîne |
| Type de tâche AI | Inférence | Bidirectionnel | Bidirectionnel | Entraînement | Entraînement | Exécution |
| Prix du travail | Basé sur la performance | Enchères inversées | Prix de marché | Prix de marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Chiffrement&Hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE |
| Coût du travail | 0,5-5%/travail | 20% USDC, 4% AKT | 2% USDC, 0,25% fonds de réserve | Frais bas | 20%/session | Proportionnel à la mise en jeu |
| Sécurité | Preuve de rendu | Preuve d'enjeu | Preuve de calcul | Preuve d'enjeu | Preuve de capacité de rendu | Hérité de la chaîne de relais |
| Preuve de réalisation | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE |
| Assurance qualité | Mécanisme de litige | - | - | Validateurs et signalements | Vérification des nœuds | Preuve à distance |
| Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |
Importance
Disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué réalise un cluster GPU, offrant un entraînement plus efficace et renforçant l'évolutivité. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, qui repose souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI compte plus de 18 trillions de paramètres, nécessitant 3 à 4 mois de temps avec 128 clusters d'environ 25 000 GPU Nvidia A100.
La plupart des projets ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net a collaboré avec d'autres projets et a déployé plus de 3 800 clusters au T1. Bien que Render ne prenne pas en charge les clusters, il décompose une seule image pour un traitement simultané sur plusieurs nœuds. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
Les cadres de clusters sont importants pour les réseaux de flux de travail AI, mais le nombre et le type de GPU de cluster qui répondent aux besoins des développeurs AI est un autre problème.
Confidentialité des données
Le développement de modèles d'IA nécessite d'importants ensembles de données, pouvant impliquer des informations sensibles. Les méthodes de confidentialité des données sont essentielles pour protéger le contrôle des données.
La plupart des projets utilisent une forme de protection cryptographique pour la vie privée des données. Render utilise le cryptage et le hachage lors de la publication des résultats de rendu. io.net et Gensyn adoptent le cryptage des données. Akash utilise l'authentification mTLS, permettant uniquement aux fournisseurs spécifiés de recevoir des données.
io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant le traitement direct des données chiffrées. Cela protège mieux la vie privée que les technologies de chiffrement existantes.
Phala Network introduit un environnement d'exécution de confiance (TEE), isolant pour empêcher l'accès ou la modification des données par des tiers. Il utilise également des zk-proofs pour intégrer le programme RiscZero zkVM.
Attestation de calcul et vérification de la qualité
Le certificat de calcul terminé indique que le GPU a effectivement été utilisé pour le service requis, et le contrôle de qualité est bénéfique pour les utilisateurs.
Gensyn et Aethir génèrent des preuves de travail, io.net prouve que les performances des GPU sont pleinement exploitées. Gensyn et Aethir effectuent des contrôles de qualité. Gensyn utilise des validateurs pour réexécuter certaines preuves, les dénonciateurs servant de contrôle supplémentaire. Aethir utilise des points de contrôle pour évaluer la qualité du service. Render suggère d'utiliser le processus de résolution des litiges pour traiter les nœuds problématiques. Phala génère des preuves TEE, garantissant que les agents AI exécutent les opérations requises.
Les modèles d'IA ont tendance à utiliser des GPU haute performance tels que les Nvidia A100 et H100. Les performances d'inférence du H100 sont 4 fois supérieures à celles de l'A100, ce qui en fait le choix privilégié des grandes entreprises pour l'entraînement des LLM.
Le fournisseur de marché GPU décentralisé doit non seulement offrir des prix plus bas, mais aussi répondre aux besoins réels. En 2023, Nvidia a livré plus de 500 000 H100 à de grandes entreprises technologiques, rendant difficile l'obtention de matériel équivalent. Il est important de considérer le nombre de matériels qui peuvent être introduits à faible coût pour le projet.
Akash n'a que plus de 150 H100 et A100, tandis que io.net et Aethir en ont chacun plus de 2000. Les LLM pré-entraînés de zéro nécessitent généralement entre 248 et plus de 2000 clusters de GPU, les deux derniers projets étant plus adaptés au calcul de modèles de grande taille.
Actuellement, le coût des services GPU décentralisés est inférieur à celui des services centralisés. Gensyn et Aethir affirment que le coût de location du matériel de niveau A100 est inférieur à 1 dollar par heure, mais cela doit encore être vérifié.
Bien que les clusters GPU connectés par réseau soient bon marché, la mémoire est limitée. NVLink prend en charge la communication directe entre les GPU, ce qui est adapté aux LLMS avec de nombreux paramètres et de grands ensembles de données.
Néanmoins, le réseau GPU décentralisé offre toujours de puissantes capacités et une évolutivité pour le calcul distribué, ouvrant la voie à la construction de davantage de cas d'utilisation en IA et ML, et brisant ainsi le monopole.
Fournir des GPU/CPU de niveau consommateur
Le CPU est également très important dans l'entraînement des modèles d'IA, utilisé pour le prétraitement des données et la gestion de la mémoire. Les GPU grand public peuvent être utilisés pour le réglage fin des modèles préentraînés ou pour des entraînements à petite échelle.
Étant donné que plus de 85 % des consommateurs ont des GPU inutilisés, des projets tels que Render, Akash et io.net peuvent également servir ce marché. Offrir ces options leur permet de développer un positionnement de marché unique, en se concentrant sur le calcul intensif à grande échelle, le rendu à petite échelle ou un mode hybride.
Conclusion
Le domaine DePIN de l'IA est encore relativement nouveau et fait face à des défis. Par exemple, io.net a été accusé de falsifier le nombre de GPU, mais a ensuite résolu le problème en introduisant une preuve de travail.
Néanmoins, le nombre de tâches et de matériel exécutés sur le réseau GPU décentralisé a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux services cloud Web2. L'augmentation du nombre de fournisseurs de matériel montre également une offre auparavant sous-exploitée. Cela prouve l'adéquation produit-marché du réseau AI DePIN, qui répond efficacement aux défis de la demande et de l'offre.
Envisageant l'avenir, l'IA va se développer en un marché florissant de plusieurs milliers de milliards de dollars, et ces réseaux GPU décentralisés offriront aux développeurs des alternatives de calcul rentables. En comblant constamment l'écart entre la demande et l'offre, ces réseaux contribueront de manière significative à l'avenir du paysage de l'IA et des infrastructures de calcul.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
7 J'aime
Récompense
7
4
Partager
Commentaire
0/400
MEVHunter
· Il y a 13h
Les investisseurs détaillants peuvent également en profiter.
L'essor de l'IA DePIN : Un réseau GPU décentralisé redéfinit l'infrastructure de calcul
L'intersection de l'IA et de DePIN : L'essor des réseaux GPU décentralisés
Récemment, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière atteignant respectivement 30 milliards de dollars et 23 milliards de dollars. Cet article se concentrera sur le domaine d'intersection des deux, en explorant le développement des protocoles connexes.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. En raison de la pénurie de GPU causée par de grandes entreprises technologiques, d'autres développeurs ont du mal à obtenir suffisamment de GPU pour le calcul des modèles d'IA. La pratique traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles, ce qui est inefficace.
DePIN offre une alternative plus flexible et rentable, incitant à la contribution des ressources par des récompenses en tokens. Dans le domaine de l'IA, DePIN intègre les ressources GPU personnelles dans des centres de données, fournissant une offre unifiée aux utilisateurs. Cela offre non seulement aux développeurs des services personnalisés à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.
Il existe plusieurs réseaux AI DePIN sur le marché, cet article analysera les fonctionnalités, les objectifs et les réalisations de chaque protocole, ainsi que les différences entre eux.
Aperçu du réseau DePIN basé sur l'IA
Rendre
Render est le pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu de création de contenu, puis élargissant ses tâches de calcul AI grâce à l'intégration d'outils tels que Stable Diffusion.
Points forts:
Akash
Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, remplaçant des fournisseurs de services traditionnels comme AWS. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il est possible de déployer sans effort n'importe quelle application cloud native.
Points forts :
io.net
io.net propose un cluster de cloud GPU distribué, spécialement conçu pour les scénarios d'IA et de ML. Il intègre les ressources GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres domaines.
Points forts:
Gensyn
Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Améliorez l'efficacité de la validation grâce à des mécanismes tels que la preuve d'apprentissage.
Points forts :
Aethir
Aethir est spécialement équipé de GPU de niveau entreprise, se concentrant sur des domaines intensifs en calcul tels que l'IA, le ML et les jeux cloud. Il transfère les charges de travail du local vers le cloud via des conteneurs, réalisant ainsi une faible latence.
Points forts:
Phala Network
Phala Network en tant que couche d'exécution de solution AI Web3, traite les problèmes de confidentialité via l'environnement d'exécution de confiance (TEE). Cela permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Points forts :
Comparaison des projets
| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, cloud gaming et télécommunications | Exécution IA sur chaîne | | Type de tâche AI | Inférence | Bidirectionnel | Bidirectionnel | Entraînement | Entraînement | Exécution | | Prix du travail | Basé sur la performance | Enchères inversées | Prix de marché | Prix de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Chiffrement&Hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE | | Coût du travail | 0,5-5%/travail | 20% USDC, 4% AKT | 2% USDC, 0,25% fonds de réserve | Frais bas | 20%/session | Proportionnel à la mise en jeu | | Sécurité | Preuve de rendu | Preuve d'enjeu | Preuve de calcul | Preuve d'enjeu | Preuve de capacité de rendu | Hérité de la chaîne de relais | | Preuve de réalisation | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Assurance qualité | Mécanisme de litige | - | - | Validateurs et signalements | Vérification des nœuds | Preuve à distance | | Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |
Importance
Disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué réalise un cluster GPU, offrant un entraînement plus efficace et renforçant l'évolutivité. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, qui repose souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI compte plus de 18 trillions de paramètres, nécessitant 3 à 4 mois de temps avec 128 clusters d'environ 25 000 GPU Nvidia A100.
La plupart des projets ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net a collaboré avec d'autres projets et a déployé plus de 3 800 clusters au T1. Bien que Render ne prenne pas en charge les clusters, il décompose une seule image pour un traitement simultané sur plusieurs nœuds. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
Les cadres de clusters sont importants pour les réseaux de flux de travail AI, mais le nombre et le type de GPU de cluster qui répondent aux besoins des développeurs AI est un autre problème.
Confidentialité des données
Le développement de modèles d'IA nécessite d'importants ensembles de données, pouvant impliquer des informations sensibles. Les méthodes de confidentialité des données sont essentielles pour protéger le contrôle des données.
La plupart des projets utilisent une forme de protection cryptographique pour la vie privée des données. Render utilise le cryptage et le hachage lors de la publication des résultats de rendu. io.net et Gensyn adoptent le cryptage des données. Akash utilise l'authentification mTLS, permettant uniquement aux fournisseurs spécifiés de recevoir des données.
io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant le traitement direct des données chiffrées. Cela protège mieux la vie privée que les technologies de chiffrement existantes.
Phala Network introduit un environnement d'exécution de confiance (TEE), isolant pour empêcher l'accès ou la modification des données par des tiers. Il utilise également des zk-proofs pour intégrer le programme RiscZero zkVM.
Attestation de calcul et vérification de la qualité
Le certificat de calcul terminé indique que le GPU a effectivement été utilisé pour le service requis, et le contrôle de qualité est bénéfique pour les utilisateurs.
Gensyn et Aethir génèrent des preuves de travail, io.net prouve que les performances des GPU sont pleinement exploitées. Gensyn et Aethir effectuent des contrôles de qualité. Gensyn utilise des validateurs pour réexécuter certaines preuves, les dénonciateurs servant de contrôle supplémentaire. Aethir utilise des points de contrôle pour évaluer la qualité du service. Render suggère d'utiliser le processus de résolution des litiges pour traiter les nœuds problématiques. Phala génère des preuves TEE, garantissant que les agents AI exécutent les opérations requises.
Statistiques matérielles
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |
Demande de GPU haute performance
Les modèles d'IA ont tendance à utiliser des GPU haute performance tels que les Nvidia A100 et H100. Les performances d'inférence du H100 sont 4 fois supérieures à celles de l'A100, ce qui en fait le choix privilégié des grandes entreprises pour l'entraînement des LLM.
Le fournisseur de marché GPU décentralisé doit non seulement offrir des prix plus bas, mais aussi répondre aux besoins réels. En 2023, Nvidia a livré plus de 500 000 H100 à de grandes entreprises technologiques, rendant difficile l'obtention de matériel équivalent. Il est important de considérer le nombre de matériels qui peuvent être introduits à faible coût pour le projet.
Akash n'a que plus de 150 H100 et A100, tandis que io.net et Aethir en ont chacun plus de 2000. Les LLM pré-entraînés de zéro nécessitent généralement entre 248 et plus de 2000 clusters de GPU, les deux derniers projets étant plus adaptés au calcul de modèles de grande taille.
Actuellement, le coût des services GPU décentralisés est inférieur à celui des services centralisés. Gensyn et Aethir affirment que le coût de location du matériel de niveau A100 est inférieur à 1 dollar par heure, mais cela doit encore être vérifié.
Bien que les clusters GPU connectés par réseau soient bon marché, la mémoire est limitée. NVLink prend en charge la communication directe entre les GPU, ce qui est adapté aux LLMS avec de nombreux paramètres et de grands ensembles de données.
Néanmoins, le réseau GPU décentralisé offre toujours de puissantes capacités et une évolutivité pour le calcul distribué, ouvrant la voie à la construction de davantage de cas d'utilisation en IA et ML, et brisant ainsi le monopole.
Fournir des GPU/CPU de niveau consommateur
Le CPU est également très important dans l'entraînement des modèles d'IA, utilisé pour le prétraitement des données et la gestion de la mémoire. Les GPU grand public peuvent être utilisés pour le réglage fin des modèles préentraînés ou pour des entraînements à petite échelle.
Étant donné que plus de 85 % des consommateurs ont des GPU inutilisés, des projets tels que Render, Akash et io.net peuvent également servir ce marché. Offrir ces options leur permet de développer un positionnement de marché unique, en se concentrant sur le calcul intensif à grande échelle, le rendu à petite échelle ou un mode hybride.
Conclusion
Le domaine DePIN de l'IA est encore relativement nouveau et fait face à des défis. Par exemple, io.net a été accusé de falsifier le nombre de GPU, mais a ensuite résolu le problème en introduisant une preuve de travail.
Néanmoins, le nombre de tâches et de matériel exécutés sur le réseau GPU décentralisé a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux services cloud Web2. L'augmentation du nombre de fournisseurs de matériel montre également une offre auparavant sous-exploitée. Cela prouve l'adéquation produit-marché du réseau AI DePIN, qui répond efficacement aux défis de la demande et de l'offre.
Envisageant l'avenir, l'IA va se développer en un marché florissant de plusieurs milliers de milliards de dollars, et ces réseaux GPU décentralisés offriront aux développeurs des alternatives de calcul rentables. En comblant constamment l'écart entre la demande et l'offre, ces réseaux contribueront de manière significative à l'avenir du paysage de l'IA et des infrastructures de calcul.