Intersection de l'IA et du DePIN : l'émergence des réseaux GPU décentralisés redéfinit un marché de 30 milliards de dollars

Intersection de l'IA et de DePIN : L'essor des réseaux GPU décentralisés

Récemment, l'intelligence artificielle et le réseau d'infrastructure physique décentralisé ( DePIN ) sont devenus des sujets populaires dans le domaine du Web3, avec une capitalisation boursière respective de 30 milliards de dollars et de 23 milliards de dollars. Cet article explorera les intersections des deux, en étudiant le développement des protocoles associés.

Dans la pile technologique de l'IA, le réseau DePIN permet à l'IA de se développer en fournissant des ressources de calcul. En raison de la pénurie de GPU causée par les grandes entreprises technologiques, d'autres équipes développant des modèles d'IA ont du mal à obtenir une puissance de calcul GPU suffisante. La pratique traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme inflexibles, ce qui est inefficace.

DePIN offre une alternative plus flexible et plus rentable, en incitant à la contribution de ressources par des récompenses en tokens. Le DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels dans des centres de données, fournissant une offre unifiée aux utilisateurs. Cela permet non seulement aux développeurs d'accéder à une puissance de calcul personnalisée et à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.

Actuellement, il existe plusieurs réseaux AI DePIN sur le marché, chacun ayant ses propres caractéristiques. Nous allons explorer le rôle de chaque protocole, ses objectifs et les réalisations obtenues, afin de mieux comprendre les différences entre eux.

AI et le point de convergence de DePIN

Aperçu du réseau DePIN AI

Render est un pionnier du réseau de calcul GPU P2P, initialement axé sur le rendu de contenu créatif, puis élargi aux tâches de calcul AI. Le projet a été fondé par la société de graphisme cloud OTOY, lauréate du Prix Technique Oscar, et son réseau GPU a été utilisé par de grandes entreprises comme Paramount et PUBG. Render collabore également avec des partenaires comme Stability AI pour intégrer les modèles AI dans le processus de rendu de contenu 3D.

Akash est positionné comme une plateforme de "super cloud" prenant en charge le stockage, le calcul GPU et CPU. Il utilise des nœuds de calcul gérés par des plateformes de conteneurs et Kubernetes, permettant un déploiement sans couture des logiciels dans différents environnements. Des applications telles que le chatbot LLM de Mistral AI et le modèle de génération d'images par texte de Stability AI fonctionnent sur Akash.

io.net offre un cluster cloud GPU distribué spécialement conçu pour l'IA et l'apprentissage automatique. L'entreprise était à l'origine une société de trading quantitatif, puis s'est transformée pour devenir l'activité actuelle. Son IO-SDK est compatible avec des frameworks tels que PyTorch et TensorFlow, et son architecture à plusieurs niveaux peut être étendue dynamiquement en fonction des besoins. io.net s'intègre également aux ressources GPU en collaboration avec Render, Filecoin, etc.

Gensyn se concentre sur les réseaux GPU pour le calcul de l'apprentissage automatique et de l'apprentissage profond. Il réalise un mécanisme de validation efficace grâce à des techniques telles que les preuves de travail et des protocoles de localisation précise basés sur des graphes. Gensyn peut affiner des modèles de base pré-entraînés pour accomplir des tâches plus spécifiques.

Aethir fournit des GPU de niveau entreprise, principalement utilisés dans des domaines à forte intensité de calcul tels que l'IA, l'apprentissage automatique et le jeu cloud. Les conteneurs dans son réseau agissent comme des points d'extrémité virtuels pour les applications cloud, déplaçant les charges de travail des appareils locaux vers les conteneurs pour offrir une expérience à faible latence. Aethir s'est également étendu aux services de téléphones cloud, établissant des partenariats avec plusieurs entreprises Web2 et Web3.

Phala Network en tant que couche d'exécution pour les solutions d'IA Web3, traite les problèmes de confidentialité grâce à un environnement d'exécution de confiance (TEE). Cela permet aux agents d'IA d'être contrôlés par des contrats intelligents sur la chaîne, et prévoit de prendre en charge à l'avenir des GPU TEE tels que H100 pour améliorer la capacité de calcul.

AI et le point de convergence de DePIN

Comparaison des projets

| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés des affaires | Rendu graphique et IA | Informatique en nuage, rendu et IA | IA | IA | Intelligence artificielle, jeux en nuage et télécommunications | Exécution de l'IA sur la chaîne | | Type de tâche IA | Inférence | Les deux sont possibles | Les deux sont possibles | Entraînement | Entraînement | Exécution | | Tarification du travail | Tarification basée sur la performance | Enchères inversées | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Chiffrement&Hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE | | Frais de travail | 0.5-5% par tâche | 20% USDC, 4% AKT | 2% USDC, 0.25% frais de réserve | Frais faibles | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne intermédiaire | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateurs et dénonciateurs | Nœud vérificateur | Preuve à distance | | Grille GPU | Non | Oui | Oui | Oui | Oui | Non |

Importance

Disponibilité du calcul en cluster et parallèle

Le cadre de calcul distribué a mis en œuvre un cluster GPU, améliorant l'efficacité d'entraînement et l'évolutivité tout en garantissant la précision du modèle. L'entraînement de modèles IA complexes nécessite une puissance de calcul importante, s'appuyant souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI possède plus de 1,8 trillion de paramètres et a été entraîné en 3-4 mois en utilisant environ 25 000 GPU Nvidia A100.

La plupart des projets ont maintenant intégré des clusters pour réaliser un calcul parallèle. io.net a collaboré avec d'autres projets et a déployé plus de 3 800 clusters au cours du premier trimestre de 24. Bien que Render ne prenne pas en charge les clusters, son fonctionnement est similaire, décomposant une seule image en plusieurs nœuds pour un traitement simultané. Phala ne prend actuellement en charge que le CPU, mais permet la mise en cluster des travailleurs CPU.

Confidentialité des données

Le développement de modèles d'IA nécessite de grands ensembles de données, pouvant impliquer des informations sensibles. Assurer la confidentialité des données est crucial pour rendre le contrôle des données aux fournisseurs. La plupart des projets adoptent une certaine forme de cryptage des données. io.net a récemment collaboré avec Mind Network pour lancer un cryptage homomorphe complet (FHE), permettant de traiter des données cryptées sans décryptage. Phala Network a introduit un environnement d'exécution de confiance (TEE), empêchant les processus externes d'accéder ou de modifier les données.

Calcul des preuves de complétion et vérification de la qualité

En raison de la large gamme de services, allant du rendu au calcul AI, la qualité finale peut ne pas toujours correspondre aux normes des utilisateurs. La réalisation de preuves et des contrôles de qualité est bénéfique pour les utilisateurs. Les preuves générées par Gensyn et Aethir indiquent que le travail est terminé et qu'un contrôle de qualité a été effectué. Les preuves de io.net montrent que la performance des GPU loués est pleinement exploitée. Render recommande d'utiliser un processus de résolution de litiges pour sanctionner les nœuds posant problème. Phala génère des preuves TEE pour s'assurer que les agents AI exécutent les opérations requises.

AI et le point de convergence de DePIN

Statistiques matérielles

| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 quantité | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |

Exigences pour les GPU haute performance

Les modèles d'IA ont tendance à utiliser des GPU haute performance tels que les A100 et H100 de Nvidia pour l'entraînement. Les performances d'inférence du H100 sont 4 fois plus rapides que celles de l'A100, ce qui en fait le choix privilégié des grandes entreprises pour l'entraînement des LLM. Les fournisseurs de GPU décentralisés doivent offrir un nombre suffisant de matériels haute performance pour rivaliser avec les concurrents de Web2. io.net et Aethir possèdent chacun plus de 2000 unités H100 et A100, plus adaptées au calcul de grands modèles.

Le coût des services GPU décentralisés est désormais bien inférieur à celui des services centralisés. Gensyn et Aethir affirment pouvoir louer des matériels équivalents à un A100 pour moins d'1 dollar de l'heure. Cependant, les clusters de GPU connectés par réseau peuvent être limités en mémoire, et ne conviennent pas aussi bien que les GPU connectés par NVLink pour les LLMS ayant de nombreux paramètres et ensembles de données.

Néanmoins, le réseau GPU décentralisé offre toujours une puissance de calcul et une évolutivité importantes pour les tâches de calcul distribué, ouvrant des opportunités pour la construction de davantage de cas d'utilisation en IA et en ML.

AI et le point de convergence de DePIN

Fournir des GPU/CPU de niveau consommateur

Bien que le GPU soit l'unité de traitement principale, le CPU joue également un rôle important dans l'entraînement des modèles d'IA. Les GPU grand public peuvent être utilisés pour des tâches de plus petite échelle, telles que le réglage fin de modèles pré-entraînés ou l'entraînement de petits modèles sur de petits ensembles de données. Des projets comme Render, Akash et io.net servent également ce marché, en utilisant des ressources GPU de consommateurs inactives.

AI et le point de convergence de DePIN

Conclusion

Le domaine de l'AI DePIN est encore relativement émergent et fait face à des défis. Cependant, le nombre de tâches exécutées sur ces réseaux et de matériel a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux ressources matérielles des fournisseurs de cloud Web2. Cette tendance prouve l'adéquation produit-marché des réseaux AI DePIN, résolvant efficacement les défis en matière de demande et d'offre.

Envisageant l'avenir, l'IA devrait devenir un marché florissant de milliers de milliards de dollars. Ces réseaux GPU décentralisés joueront un rôle clé en fournissant des alternatives de calcul économiques aux développeurs, contribuant ainsi de manière significative à l'avenir de l'IA et de l'infrastructure de calcul.

AI et le point de convergence de DePIN

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 3
  • Partager
Commentaire
0/400
MintMastervip
· Il y a 6h
La perspective est limitée, 30 milliards n'est que le début~
Voir l'originalRépondre0
RugDocDetectivevip
· Il y a 6h
Encore une chose qui veut prendre les gens pour des idiots.
Voir l'originalRépondre0
CryptoGoldminevip
· Il y a 6h
Les données parlent, le rendement quotidien moyen des GPU a dépassé 30 % ROI, adapté pour créer une position.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)