AI+Web3 : Explorer l'application des incitations distribuées sur le marché des données, de la puissance de calcul et des modèles open source.

AI+Web3 : Tours et places

TL;DR

  1. Les projets Web3 basés sur le concept d'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.

  2. Les opportunités de Web3 dans l'industrie de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle de longue traîne, impliquant des données, du stockage et du calcul ; tout en établissant un marché décentralisé pour les modèles open source et les agents AI.

  3. L'IA est principalement utilisée dans l'industrie Web3 pour la finance sur la chaîne (paiements cryptographiques, échanges, analyses de données) et pour aider au développement.

  4. L'utilité de l'IA+Web3 se manifeste dans la complémentarité des deux : Web3 a le potentiel de lutter contre la centralisation de l'IA, tandis que l'IA pourrait aider Web3 à sortir de son cercle.

AI+Web3 : Tours et places

Introduction

Au cours des deux dernières années, le développement de l'IA a été comme si on avait appuyé sur un bouton d'accélération. Cette vague déclenchée par Chatgpt a non seulement ouvert un nouveau monde de l'intelligence artificielle générative, mais a également provoqué de grandes vagues dans le domaine du Web3.

Sous l'impulsion du concept d'IA, le financement du marché des cryptomonnaies a clairement été revitalisé. Selon les statistiques, seulement au cours du premier semestre 2024, 64 projets Web3 + IA ont réussi à lever des fonds, le système d'exploitation basé sur l'intelligence artificielle Zyber365 ayant atteint un montant de financement record de 100 millions de dollars lors de sa série A.

Le marché secondaire est de plus en plus florissant. Selon les données du site agrégateur de crypto-monnaies Coingecko, en un peu plus d'un an, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars, avec un volume d'échanges de près de 8,6 milliards de dollars sur 24 heures. Les progrès technologiques de l'IA ont clairement apporté des bénéfices, après la publication du modèle de conversion texte-vidéo Sora d'OpenAI, le prix moyen du secteur de l'IA a augmenté de 151 %. L'effet de l'IA s'est également étendu à l'un des secteurs d'attraction de capitaux en crypto-monnaies, les Memes : le premier MemeCoin basé sur le concept d'Agent IA - GOAT - est rapidement devenu populaire et a obtenu une évaluation de 1,4 milliard de dollars, suscitant avec succès la frénésie des Memes IA.

La recherche et les sujets sur l'AI+Web3 sont tout aussi brûlants, allant de l'AI+Depin à l'AI Memecoin, puis aux actuels AI Agent et AI DAO, le sentiment de FOMO ne peut déjà plus suivre la vitesse de rotation des nouveaux récits.

Le terme combiné AI+Web3, rempli d'argent chaud, de tendances et de fantasmes d'avenir, est inévitablement considéré comme un mariage arrangé orchestré par le capital. Il semble difficile de discerner sous ce bel emballage, s'il s'agit vraiment d'un terrain de jeu pour les spéculateurs ou de la veille d'une explosion à l'aube ?

Pour répondre à cette question, une réflexion clé pour les deux parties est : est-ce que cela s'améliorera avec l'autre ? Peut-on bénéficier du modèle de l'autre ? Cet article tente d'examiner cette dynamique en se tenant sur les épaules des géants : comment Web3 peut jouer un rôle à chaque étape de la pile technologique de l'IA, et quelle nouvelle vitalité l'IA peut-elle apporter à Web3 ?

Partie 1 Quelles opportunités pour le Web3 sous la pile AI ?

Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :

Exprimez tout le processus en termes simples : "Le grand modèle" est comme le cerveau humain, à un stade précoce, il ressemble à un nouveau-né, qui doit observer et ingérer une quantité massive d'informations extérieures pour comprendre le monde, c'est la phase de "collecte" des données. Étant donné que les ordinateurs n'ont pas les capacités sensorielles multiples des humains, les vastes informations non étiquetées provenant de l'extérieur doivent être converties en un format d'information compréhensible et utilisable par l'ordinateur par le biais de "prétraitement".

Après avoir entré les données, l'IA construit un modèle capable de comprendre et de prédire par le biais de "l'entraînement", ce qui peut être considéré comme le processus par lequel un bébé apprend progressivement à comprendre le monde extérieur. Les paramètres du modèle sont semblables aux capacités linguistiques qui s'ajustent continuellement au cours de l'apprentissage du bébé. Le contenu d'apprentissage commence à être divisé par matière, ou à travers des échanges avec les humains pour obtenir des retours et corriger, ce qui introduit la phase de "réglage fin" du grand modèle.

Les enfants, une fois qu'ils ont appris à parler, peuvent comprendre le sens et exprimer leurs sentiments et pensées dans une nouvelle conversation. Cette étape est similaire à "l'inférence" des grands modèles d'IA, où le modèle peut effectuer des analyses prédictives sur de nouveaux textes linguistiques. Les bébés expriment leurs sentiments, décrivent des objets et résolvent des problèmes grâce à leur capacité linguistique, ce qui est également semblable à l'application des grands modèles d'IA après leur formation dans des tâches spécifiques comme la classification d'images ou la reconnaissance vocale.

L'Agent IA est alors plus proche de la prochaine évolution des grands modèles - capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes. Il possède non seulement des capacités de réflexion, mais aussi de la mémoire, de la planification, et peut interagir avec le monde en utilisant des outils.

Actuellement, en réponse aux points de douleur de l'IA dans diverses piles technologiques, le Web3 a commencé à former un écosystème multicouche et interconnecté, couvrant toutes les étapes du processus des modèles d'IA.

AI+Web3 : Tours et places

Un, Niveau de base : Airbnb de la puissance de calcul et des données

Puissance de calcul

Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires pour entraîner et inférer des modèles.

Par exemple, le LLAMA3 de Meta nécessite 16 000 GPU H100 produits par NVIDIA (qui sont des unités de traitement graphique de premier plan conçues pour les charges de travail en IA et en calcul haute performance) pour terminer l'entraînement en 30 jours. La version de 80 Go coûte entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel informatique (GPU + puces réseau) de 400 à 700 millions de dollars, tout en consommant 1,6 milliard de kilowattheures par mois, les dépenses énergétiques s'élevant à près de 20 millions de dollars par mois.

Le décompressage de la puissance de calcul AI est également le domaine où Web3 a croisé l'AI pour la première fois - DePin (réseau d'infrastructure physique décentralisé). Actuellement, le site de données DePin Ninja a répertorié plus de 1400 projets, parmi lesquels des projets représentatifs de partage de puissance GPU comprennent io.net, Aethir, Akash, Render Network, etc.

Sa logique principale réside dans le fait que la plateforme permet aux particuliers ou entités possédant des ressources GPU inutilisées de contribuer leur puissance de calcul de manière décentralisée et sans autorisation. Grâce à un marché en ligne pour les acheteurs et les vendeurs, similaire à Uber ou Airbnb, cela augmente l'utilisation des ressources GPU sous-utilisées, et les utilisateurs finaux bénéficient ainsi de ressources de calcul efficaces à moindre coût. Parallèlement, un mécanisme de mise en jeu garantit que les fournisseurs de ressources soient punis en cas de violation des mécanismes de contrôle de qualité ou d'interruption du réseau.

Ses caractéristiques sont :

  • Rassembler des ressources GPU inutilisées : les fournisseurs se composent principalement de centres de données indépendants de taille petite à moyenne, de mineurs de cryptomonnaies et autres opérateurs disposant de ressources de calcul excédentaires, avec des matériels d'extraction basés sur un mécanisme de consensus PoS, comme les mineurs FileCoin et ETH. Actuellement, il existe également des projets visant à réduire le seuil d'entrée avec des équipements tels qu'exolab, qui utilise des appareils locaux comme MacBook, iPhone, iPad pour établir un réseau de calcul pour l'inférence de grands modèles.

  • Face au marché de longue traîne de la puissance de calcul IA :

a. "En ce qui concerne le côté technique", un marché de puissance de calcul décentralisé est plus adapté aux étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données fournie par des GPU à très grande échelle, tandis que l'inférence exige relativement peu de performances de calcul des GPU, comme Aethir qui se concentre sur le rendu à faible latence et les applications d'inférence AI.

b. "Du côté de la demande", les petites et moyennes entreprises de puissance de calcul ne formeront pas leurs propres grands modèles de manière indépendante, mais choisiront plutôt d'optimiser et de peaufiner autour de quelques grands modèles de tête, et ces scénarios sont naturellement adaptés aux ressources de puissance de calcul inutilisées et distribuées.

  • Propriété décentralisée : la signification technique de la blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle sur celles-ci, ajustant de manière flexible en fonction des besoins tout en réalisant des bénéfices.

Données

Les données sont la base de l'IA. Sans données, le calcul est aussi inutile qu'une feuille flottante. La relation entre les données et le modèle est comme ce proverbe : "Garbage in, Garbage out". La quantité de données et la qualité de l'entrée déterminent la qualité de la sortie finale du modèle. En ce qui concerne l'entraînement des modèles d'IA actuels, les données déterminent la capacité linguistique, la capacité de compréhension, et même les valeurs et l'humanité du modèle. Actuellement, les défis en matière de demande de données pour l'IA se concentrent principalement sur les quatre aspects suivants :

  • Soif de données : L'entraînement des modèles d'IA dépend d'un grand nombre de données en entrée. Les données publiques montrent que le nombre de paramètres pour entraîner GPT-4 d'OpenAI atteint le niveau des trillions.

  • Qualité des données : Avec la combinaison de l'IA et des différents secteurs, la temporalité des données, leur diversité, la spécialisation des données sectorielles et l'intégration de nouvelles sources de données telles que les émotions sur les réseaux sociaux ont également imposé de nouvelles exigences à leur qualité.

  • Problèmes de confidentialité et de conformité : Actuellement, les pays et les entreprises prennent de plus en plus conscience de l'importance des ensembles de données de qualité et commencent à limiter le crawling des ensembles de données.

  • Coûts de traitement des données élevés : volume de données important, processus de traitement complexe. Les données publiques montrent que plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.

Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :

  1. Collecte de données : La disponibilité des données du monde réel récupérées gratuitement s'épuise rapidement, et les dépenses des entreprises d'IA pour les données augmentent chaque année. Cependant, ces dépenses ne profitent pas réellement aux véritables contributeurs de données, les plateformes bénéficiant pleinement de la valeur créée par les données, comme Reddit qui a réalisé un revenu total de 203 millions de dollars grâce à des accords de licence de données signés avec des entreprises d'IA.

Permettre aux utilisateurs qui contribuent réellement de participer à la création de valeur apportée par les données, ainsi qu'à travers un réseau distribué et un mécanisme d'incitation, d'obtenir des données plus privées et plus précieuses à moindre coût, est la vision du Web3.

  • Grass est une couche de données et un réseau décentralisés, permettant aux utilisateurs de faire fonctionner des nœuds Grass, de contribuer à la bande passante inutilisée et au trafic de relais pour capturer des données en temps réel provenant d'Internet, et de recevoir des récompenses en tokens.

  • Vana a introduit un concept unique de pools de liquidité de données (DLP), permettant aux utilisateurs de télécharger des données privées (telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc.) dans des DLP spécifiques, et de choisir de manière flexible s'ils souhaitent autoriser des tiers spécifiques à utiliser ces données.

  • Dans PublicAI, les utilisateurs peuvent utiliser #AI或#Web3 comme étiquette de classification sur X et @PublicAI pour collecter des données.

  1. Prétraitement des données : Dans le processus de traitement des données par l'IA, les données collectées sont souvent bruyantes et contiennent des erreurs, il est donc nécessaire de les nettoyer et de les convertir en un format utilisable avant d'entraîner le modèle, ce qui implique des tâches répétées de normalisation, de filtrage et de traitement des valeurs manquantes. Cette étape est l'un des rares éléments manuels de l'industrie de l'IA, ayant donné naissance à la profession de spécialiste de l'annotation des données. Avec l'augmentation des exigences de qualité des données par les modèles, le seuil d'entrée pour les spécialistes de l'annotation des données a également augmenté, et cette tâche est naturellement adaptée au mécanisme d'incitation décentralisé du Web3.
  • Actuellement, Grass et OpenLayer envisagent tous deux d'intégrer l'étape clé de l'annotation des données.

  • Synesis a proposé le concept "Train2earn", soulignant la qualité des données. Les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.

  • Le projet de marquage de données Sapien gamifie les tâches de marquage et permet aux utilisateurs de miser des points pour en gagner davantage.

  1. Confidentialité et sécurité des données : Il est nécessaire de clarifier que la confidentialité des données et la sécurité des données sont deux concepts différents. La confidentialité des données concerne le traitement des données sensibles, tandis que la sécurité des données protège les informations contre les accès, la destruction et le vol non autorisés. Ainsi, les avantages des technologies de confidentialité Web3 et les scénarios d'application potentiels se manifestent dans deux domaines : (1) l'entraînement sur des données sensibles ; (2) la collaboration des données : plusieurs propriétaires de données peuvent participer ensemble à l'entraînement de l'IA sans avoir à partager leurs données brutes.

Les technologies de confidentialité actuellement courantes dans Web3 comprennent :

  • Environnement d'exécution fiable (TEE), comme Super Protocol.

  • Chiffrement homomorphe complet (FHE), par exemple BasedAI, Fhenix.io ou Inco Network.

  • La technologie des preuves à divulgation nulle de connaissance (zk), comme le Reclaim Protocol qui utilise la technologie zkTLS, génère une preuve à divulgation nulle de connaissance pour le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des activités, une réputation et des données d'identité depuis des sites externes sans exposer d'informations sensibles.

Cependant, ce domaine en est encore à ses débuts, la plupart des projets sont encore en phase d'exploration, et le principal défi est que le coût des calculs est trop élevé, par exemple :

  • Le cadre zkML EZKL nécessite environ 80 minutes pour générer la preuve du modèle 1M-nanoGPT.

  • Selon les données de Modulus Labs, les coûts de zkML sont supérieurs de plus de 1000 fois à ceux du calcul pur.

  1. Stockage des données : Une fois les données obtenues, il faut également un endroit pour stocker les données sur la chaîne, ainsi que le LLM généré à partir de ces données. Avec la disponibilité des données (DA) comme problème central, avant la mise à niveau Danksharding d'Ethereum, son débit était de 0,08 Mo. Parallèlement, l'entraînement des modèles d'IA et l'inférence en temps réel nécessitent généralement un débit de données de 50 à 100 Go par seconde. Cette différence d'échelle rend les solutions existantes sur la chaîne incapables de gérer "les applications IA gourmandes en ressources".
  • 0g.AI est un projet représentatif de cette catégorie. C'est une solution de stockage centralisée conçue pour les besoins de haute performance en IA, avec des caractéristiques clés comprenant : haute performance et évolutivité, grâce à des technologies de sharding avancées et de codage de correction d'erreurs, prenant en charge le téléchargement et le téléversement rapides de grands ensembles de données, avec une vitesse de transfert de données proche de 5 Go par seconde.

Deux, Middleware : entraînement et inférence du modèle

Marché décentralisé de modèles open source

Le débat sur le fait que les modèles d'IA soient open source ou fermés n'a jamais disparu. L'innovation collective apportée par l'open source est un avantage inégalé par les modèles fermés. Cependant, comment un modèle open source peut-il améliorer la motivation des développeurs sans un modèle de profit ? C'est une question digne d'intérêt.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 6
  • Partager
Commentaire
0/400
NeverVoteOnDAOvip
· Il y a 14h
Encore une fois, ces concepts embrouillent les gens.
Voir l'originalRépondre0
PanicSeller69vip
· Il y a 14h
Ça y est, il faut vraiment entrer dans une position.
Voir l'originalRépondre0
OnChainDetectivevip
· Il y a 14h
J'ai surveillé les données toute la nuit, même le mode de trading est prédéfini par l'IA.
Voir l'originalRépondre0
SybilSlayervip
· Il y a 14h
J'adore le chiffrement et j'adore flâner, c'est vraiment délicieux.
Voir l'originalRépondre0
ThatsNotARugPullvip
· Il y a 14h
Un vieux pigeon du web3 qui veut prendre les gens pour des idiots sans être un pigeon.
Voir l'originalRépondre0
BearMarketBarbervip
· Il y a 14h
Encore une vague de machines à prendre les gens pour des idiots
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)