Collision entre l'IA et DePIN : explorer le développement des réseaux GPU décentralisés

Intersection de l'IA et de DePIN : explorer le développement des réseaux GPU décentralisés

Depuis 2023, l'IA et DePIN ont suscité beaucoup d'attention dans le domaine du Web3, avec des capitalisations boursières respectives atteignant 30 milliards de dollars et 23 milliards de dollars. Cet article se concentrera sur le domaine d'intersection des deux, en explorant le développement des protocoles associés.

Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. En raison du développement des grandes entreprises technologiques, il y a une pénurie de GPU, ce qui rend difficile pour d'autres développeurs d'obtenir suffisamment de ressources GPU pour construire leurs propres modèles d'IA. Traditionnellement, les développeurs choisissent des fournisseurs de services cloud centralisés, mais cela nécessite souvent de signer des contrats à long terme peu flexibles, ce qui entraîne une efficacité réduite.

DePIN offre une alternative plus flexible et plus rentable. Il incite les contributions de ressources par des récompenses en jetons, en externalisant les ressources GPU des propriétaires individuels vers des centres de données, formant un approvisionnement unifié pour les utilisateurs qui ont besoin de matériel. Cela fournit non seulement aux développeurs une puissance de calcul personnalisable et à la demande, mais offre également aux propriétaires de GPU une source de revenus supplémentaire.

Il existe plusieurs réseaux DePIN AI sur le marché, chacun ayant ses propres caractéristiques. Nous allons explorer les caractéristiques et les objectifs de quelques projets principaux, ainsi que certains de leurs résultats concrets.

AI et le point de convergence de DePIN

Aperçu du réseau AI DePIN

Render est le pionnier d'un réseau P2P offrant des capacités de calcul GPU, initialement axé sur le rendu de contenu créatif, puis élargissant son champ d'application aux tâches de calcul AI.

Caractéristiques:

  • Fondé par la société de graphisme cloud OTOY, qui possède une technologie primée aux Oscars.
  • Le réseau GPU a été utilisé par de grandes entreprises de l'industrie du divertissement, telles que Paramount Pictures, PUBG, etc.
  • Collaborer avec Stability AI et Endeavor pour intégrer des modèles d'IA dans le flux de travail de rendu de contenu 3D
  • Approuver plusieurs clients de calcul, intégrer plus de GPU de réseaux DePIN

Akash est positionné comme une alternative "super cloud" prenant en charge le stockage, le calcul GPU et CPU. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il est possible de déployer des logiciels de manière transparente à travers les environnements et d'exécuter toute application cloud native.

Caractéristiques :

  • Pour une large gamme de tâches de calcul, allant du calcul général à l'hébergement de réseau
  • AkashML permet à son réseau GPU de faire fonctionner plus de 15 000 modèles sur Hugging Face
  • A hébergé certaines applications connues, comme le robot de chat LLM de Mistral AI, le modèle SDXL de Stability AI, etc.
  • Soutenir la construction de plateformes pour le métavers, le déploiement de l'IA et l'apprentissage fédéré.

io.net fournit un accès à des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation AI et ML. Il agrège des ressources GPU provenant de centres de données, de mineurs de crypto-monnaies et d'autres réseaux décentralisés.

Caractéristiques:

  • IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow, et l'architecture multicouche peut être étendue dynamiquement en fonction des besoins.
  • Prise en charge de la création de 3 types différents de clusters, pouvant être lancés en 2 minutes
  • Collaborer avec plusieurs réseaux DePIN tels que Render, Filecoin, Aethir, et intégrer les ressources GPU

Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Il améliore l'efficacité grâce à un mécanisme de validation innovant.

Caractéristiques :

  • Le coût horaire d'un GPU équivalent V100 est d'environ 0,40 dollar, ce qui permet d'importantes économies.
  • Grâce à la preuve de pile, il est possible d'affiner le modèle de base pré-entraîné.
  • Ces modèles de base seront décentralisés et mondialement possédés.

Aethir est spécialement conçu pour les GPU d'entreprise, se concentrant sur les domaines à forte intensité de calcul, tels que l'IA, le ML et le cloud gaming. Les conteneurs dans son réseau agissent comme des points de terminaison virtuels pour l'exécution d'applications basées sur le cloud.

Caractéristiques :

  • En plus de l'IA et des jeux en nuage, elle s'étend également aux services de cloud phone, en collaboration avec APhone pour lancer un smartphone intelligent en nuage décentralisé.
  • Établir une large coopération avec de grandes entreprises Web2 telles que NVIDIA, Super Micro et HPE
  • Collaborer avec plusieurs projets Web3 tels que CARV, Magic Eden

Phala Network en tant que couche d'exécution pour les solutions Web3 AI. Sa blockchain est une solution de cloud computing sans confiance, qui traite les problèmes de confidentialité grâce à un environnement d'exécution de confiance (TEE).

Caractéristiques :

  • Agir en tant que protocole de coprocesseur de calcul vérifiable, permettant aux agents IA d'accéder aux ressources sur la chaîne
  • Les contrats d'agence AI peuvent accéder aux meilleurs modèles de langage comme OpenAI, Llama, etc. via Redpill.
  • L'avenir comprendra des systèmes de preuve multiples tels que les zk-proofs, le calcul multipartite et le chiffrement entièrement homomorphe.
  • Support futur pour d'autres GPU TEE comme le H100, amélioration de la capacité de calcul.

AI et le point de convergence de DePIN

Comparaison de projet

| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points d'affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, cloud gaming et télécommunications | Exécution IA sur la chaîne | | Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution | | Tarification du travail | Tarification basée sur la performance | Enchère inversée | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Cryptage | TEE | | Frais de travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais bas | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve d'enjeu | Preuve de calcul | Preuve d'enjeu | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve d'achèvement | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateurs et dénonciateurs | Nœuds vérificateurs | Preuve à distance | | Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |

Importance

Disponibilité du calcul en cluster et parallèle

Le cadre de calcul distribué a mis en œuvre un cluster GPU, offrant un entraînement plus efficace sans compromettre la précision du modèle, tout en améliorant l'évolutivité. L'entraînement de modèles d'IA complexes nécessite une puissance de calcul importante, reposant souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI possède plus de 1,8 billion de paramètres et a été entraîné en 3-4 mois en utilisant environ 25 000 GPU Nvidia A100 répartis sur 128 clusters.

La plupart des projets clés ont maintenant intégré des clusters pour réaliser un calcul parallèle. io.net collabore avec des projets tels que Render, Filecoin et Aethir pour intégrer davantage de GPU dans son réseau, et a déjà déployé plus de 3 800 clusters au premier trimestre de 24. Bien que Render ne supporte pas les clusters, son fonctionnement est similaire, décomposant un seul cadre en plusieurs nœuds traités simultanément. Phala ne prend actuellement en charge que le CPU, mais permet de regrouper les travailleurs CPU.

Confidentialité des données

Le développement de modèles d'IA nécessite l'utilisation de grands ensembles de données, ces données pouvant contenir des informations sensibles. Assurer la confidentialité des données est crucial pour restituer le contrôle des données aux fournisseurs de données.

La plupart des projets utilisent une forme de cryptage des données pour protéger la confidentialité des données. Render utilise le cryptage et le hachage lors de la publication des résultats de rendu, io.net et Gensyn adoptent le cryptage des données, Akash utilise l'authentification mTLS.

io.net a récemment collaboré avec Mind Network pour lancer un chiffrement homomorphe complet (FHE), permettant de traiter des données chiffrées sans nécessiter de déchiffrement préalable. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données.

Calcul de la preuve d'achèvement et de l'inspection de la qualité

Étant donné que les GPU fournis par ces projets peuvent être utilisés pour une large gamme de services, allant du rendu graphique au calcul AI, il est donc nécessaire de compléter les mécanismes de preuve et de contrôle de qualité.

Gensyn et Aethir génèrent des preuves après l'achèvement des calculs, la preuve de io.net montre que la performance GPU louée est pleinement utilisée. Gensyn et Aethir effectuent tous deux un contrôle qualité des calculs terminés. Render recommande d'utiliser le processus de résolution des litiges. Phala génère une preuve TEE une fois terminé, garantissant que l'agent AI exécute les opérations nécessaires sur la chaîne.

AI et le point de convergence de DePIN

Données statistiques matérielles

| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Nombre de H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |

Exigences des GPU haute performance

L'entraînement des modèles d'IA nécessite les GPU les plus performants, comme les A100 et H100 de Nvidia. La performance d'inférence du H100 est 4 fois plus rapide que celle du A100, ce qui en fait le GPU de choix, en particulier pour les grandes entreprises qui s'entraînent sur leur propre LLM.

Les fournisseurs de marché GPU décentralisés doivent rivaliser avec leurs homologues Web2 en offrant non seulement des prix plus bas, mais aussi en répondant aux besoins réels du marché. En 2023, Nvidia a livré plus de 500 000 H100 à de grandes entreprises technologiques centralisées, rendant difficile l'acquisition de matériel équivalent.

io.net et Aethir possèdent chacun plus de 2000 unités H100 et A100, ce qui les rend plus adaptés au calcul de grands modèles. En fonction de la taille de cluster requise par les développeurs, le coût de ces services de GPU décentralisés est actuellement beaucoup plus bas que celui des services de GPU centralisés.

Bien que le cluster GPU connecté au réseau soit limité en mémoire, le réseau GPU décentralisé peut néanmoins offrir une puissance de calcul et une évolutivité robustes pour les tâches de calcul distribué, en particulier pour les utilisateurs nécessitant flexibilité et capacité à répartir les charges de travail sur plusieurs nœuds.

Fournir des GPU/CPU de niveau consommateur

Le CPU joue également un rôle important dans l'entraînement des modèles d'IA, pouvant être utilisé dans plusieurs étapes, de la prétraitement des données à la gestion des ressources mémoire. Les GPU grand public peuvent être utilisés pour des tâches moins intensives, comme le fine-tuning de modèles pré-entraînés ou l'entraînement de modèles de petite taille sur de petits ensembles de données.

Étant donné que plus de 85 % des ressources GPU des consommateurs sont inactives, des projets tels que Render, Akash et io.net peuvent également répondre à ce marché. Offrir ces options leur permet de développer leur propre positionnement sur le marché, en se concentrant sur le calcul intensif à grande échelle, le rendu à petite échelle ou une combinaison des deux.

AI et le point de convergence de DePIN

Conclusion

Le domaine de l'AI DePIN reste relativement émergent et fait face à ses propres défis. Cependant, le nombre de tâches exécutées sur ces réseaux GPU décentralisés et de matériel a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux ressources matérielles des fournisseurs de cloud Web2. Parallèlement, l'augmentation du nombre de fournisseurs de matériel montre également une offre auparavant sous-exploitée. Cela prouve davantage l'adéquation produit-marché des réseaux AI DePIN, qui répond efficacement aux défis de la demande et de l'offre.

Envisageant l'avenir, l'IA devrait devenir un marché florissant de milliers de milliards de dollars. Ces réseaux GPU décentralisés joueront un rôle clé en fournissant aux développeurs des solutions de calcul économiquement efficaces. En comblant continuellement l'écart entre l'offre et la demande, ces réseaux contribueront de manière significative au paysage futur de l'IA et de l'infrastructure informatique.

AI et le point de convergence DePIN

AI et le point de convergence de DePIN

AI et le point de convergence de DePIN

AI et le point de convergence de DePIN

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
LiquidationWatchervip
· Il y a 9h
Il est clair que le GPU reste une victoire centralisée.
Voir l'originalRépondre0
MidnightSellervip
· Il y a 9h
Ah ça... le gpu va encore avoir un bull run ?
Voir l'originalRépondre0
AirdropworkerZhangvip
· Il y a 9h
Honnêtement, qui fait encore de l'IA ? Maintenant, tout le monde se dirige vers le depin.
Voir l'originalRépondre0
AirdropHunterKingvip
· Il y a 9h
prendre les gens pour des idiots撸过的N个Airdrop都在路上了
Voir l'originalRépondre0
CoconutWaterBoyvip
· Il y a 9h
Pénurie de GPU ? C'est comme chercher un mineur avec une lanterne.
Voir l'originalRépondre0
Layer2Arbitrageurvip
· Il y a 9h
*bâille* juste un autre gain d'efficacité de 300 points de base... réveillez-moi quand nous atteindrons des taux d'utilisation de GPU de 10x
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)