Bienvenue dans le deuxième article de notre série de recherche sur les grands modèles de langage (LLM) et la blockchain. Dans l'article précédent, nous avons expliqué comment intégrer la technologie LLM et blockchain à un niveau technique, et pourquoi le cadre LLM est très adapté au domaine de la blockchain. Nous décrivons également des voies potentielles pour intégrer LLM à la blockchain à l'avenir.
Dans cet article, nous adopterons une approche plus pratique et plongerons dans huit domaines d'application spécifiques qui, selon nous, changeront radicalement l'expérience utilisateur de la blockchain. Encore plus excitant, nous prévoyons que ces applications révolutionnaires deviendront une réalité au cours de la prochaine année.
Rejoignez-nous alors que nous découvrons l'avenir de l'interaction blockchain. Voici un bref aperçu des huit applications dont nous parlerons :
Intégration des capacités intégrées d'IA/LLM dans la blockchain
Utilisation de LLM pour analyser les enregistrements de transaction
Améliorez la sécurité avec LLM
Écrire du code avec LLM
Lire le code avec LLM
Aider la communauté avec LLM
Mettre en œuvre LLM pour suivre le marché
Appliquer LLM pour analyser les projets
## Intégrez les capacités intégrées d'IA/LLM dans la blockchain
La blockchain aura des fonctions et des modèles d'intelligence artificielle intégrés. Les développeurs peuvent accéder aux fonctions d'IA pour effectuer des tâches ML de signature telles que la classification, la régression, la complétion de texte et l'AIGC en chaîne. Les développeurs peuvent appeler ces fonctions d'intelligence artificielle via des contrats intelligents.
Grâce à ces fonctionnalités intégrées, les développeurs peuvent donner intelligence et autonomie à leurs contrats intelligents. La classification, la régression et l'AIGC sont des tâches d'IA typiques. Voyons l'application de ces fonctions dans le domaine de la blockchain et quelques exemples de projets.
Classification
La classification peut être utilisée pour déterminer si une adresse est un robot ou une personne réelle. Cela pourrait changer la situation actuelle des ventes de NFT. La classification peut également améliorer la sécurité de l'écosystème DeFi. Les contrats intelligents DeFi peuvent filtrer les transactions malveillantes et empêcher la perte de fonds.
Régression
L'analyse de régression peut être utilisée pour la prévision, appliquée à la gestion de fonds et d'actifs. Numer.ai utilise déjà l'intelligence artificielle pour les aider à gérer leur argent. Numer fournit des données boursières de haute qualité sur lesquelles les data scientists travaillent et appliquent le machine learning pour prédire le marché boursier.
###AIGC
De nombreux projets NFT tentent de construire un univers IP. Cependant, leur contenu limité ne peut pas supporter un univers. Si nous pouvons utiliser AIGC sur la chaîne, nous pouvons produire d'innombrables contenus avec un style de marque emblématique similaire à un coût relativement faible. Les modèles peuvent produire du texte, des illustrations, de la musique, du son et même de la vidéo. Cela augmente considérablement la taille de l'univers IP. Les participants de la communauté peuvent affiner collectivement le modèle pour répondre à leurs attentes. Le processus de mise au point permet également à la communauté de se sentir impliquée.
Botto utilise le modèle AIGC pour générer du contenu artistique. La communauté vote sur ses images préférées pour affiner collectivement le modèle AIGC.
Si nous considérons la blockchain comme une base de données, nous constatons également que Databend intègre des capacités d'intelligence artificielle intégrées dans sa base de données. Ils fournissent les fonctions suivantes :
ai_embedding_vector : génère des vecteurs d'intégration pour les documents texte.
ai_text_completion : génère la complétion de texte en fonction de l'indice donné.
cosinus_distance : calcule la distance cosinus entre deux vecteurs d'intégration.
ai_to_sql : convertit les instructions en langage naturel en requêtes SQL.
Fournir des capacités d'IA pour la blockchain
Nous savons que certains projets apportent des capacités d'IA à la blockchain.
Gizeh travaille sur ZKML. Il génère des preuves de raisonnement hors chaîne et les vérifie en chaîne. Il prend désormais en charge les blockchains compatibles avec la machine virtuelle Ethereum ainsi que StarkNet. Giza a récemment annoncé un partenariat avec Yearn.finance, par lequel Yearn tirera parti des capacités d'intelligence artificielle de Giza pour améliorer ses capacités d'évaluation des risques.
Modulus Labs travaille également dans une direction similaire. Ils travaillent plus dur pour améliorer les systèmes de preuve afin de générer des circuits hautes performances pour l'intelligence artificielle. Ils ont publié des démos telles que Chess AI et Ethereum Price Prediction AI. Leur nouveau projet de démonstration, zkMon, est le premier objet de collection Generative Adversarial Network NFT à preuve de connaissance zéro au monde.
Utilisez LLM pour analyser les enregistrements de transaction
L'analyse des enregistrements de transaction est généralement effectuée par des applications spécifiques telles que Debank. L'analyse manuelle des enregistrements de transactions par des humains est difficile. L'analyse manuelle implique la collecte, le nettoyage et l'analyse des données, ce qui nécessite que les utilisateurs aient des compétences en codage. En raison de la capacité de LLM à analyser et à visualiser les données, nous avons maintenant une nouvelle approche. Grâce à LLM, nous pouvons analyser les données en chaîne en fonction des besoins personnalisés. Nous pouvons analyser le taux de victoire, le ratio de performance ou toute autre information que nous voulons connaître.
RSS3 a développé un plugin ChatGPT appelé Web3 User Activity pour travailler dans ce sens. Les utilisateurs peuvent saisir l'adresse du portefeuille, ENS ou Lens pour interroger les activités en chaîne. Ce plugin affichera les informations de transaction sous une forme lisible par l'homme. Malheureusement, cependant, il ne peut pas effectuer de requêtes complexes telles que le nombre de détenteurs d'Azuki, les contrats intelligents les plus populaires, etc. Les utilisateurs doivent également être conscients que les adresses et les balises fournies par les plugins ne sont pas nécessairement exactes.
DeFiLlama a également publié un plugin ChatGPT. Les utilisateurs peuvent interroger toutes les données disponibles sur DeFiLlama en langage naturel. Il peut également effectuer des opérations simples de filtrage et de tri :
Dune intègre également GPT dans son produit pour activer les fonctionnalités suivantes :
Interprétation des requêtes : utilisez LLM pour expliquer les requêtes
Traduction de requête : utilisez LLM pour traduire d'autres langages SQL vers DuneSQL
Requête en langage naturel : permet aux utilisateurs d'écrire des requêtes en langage naturel
Recherche : améliorez les résultats de recherche à l'aide de LLM
Base de connaissances de l'assistant : un chatbot qui permet aux utilisateurs de communiquer avec des documents
Tirez parti de LLM pour renforcer la sécurité
En raison de ses capacités logiques et de raisonnement, LLM peut être utilisé pour filtrer certaines transactions malveillantes et agir comme un pare-feu pour les contrats intelligents. Voici un exemple concret de la façon de bloquer l'activité du bot :
Après avoir saisi l'adresse, LLM peut obtenir toutes les données de transaction via un plug-in tiers, puis analyser ces enregistrements de transaction et établir la possibilité que l'adresse soit un robot. Cette fonctionnalité peut être intégrée dans les Dapps où les bots ne sont pas les bienvenus, comme les ventes NFT.
Vous trouverez ci-dessous un exemple simple via ChatGPT. ChatGPT récupère les enregistrements de transaction du compte via le plug-in d'activité utilisateur Web3 développé par RSS3, puis analyse ces enregistrements de transaction et indique la possibilité que le compte soit un robot.
Si nous alimentons plus d'enregistrements de transactions et affinons le LLM sur l'ensemble de données lié au bot, nous pouvons obtenir des résultats plus précis. Vous trouverez ci-dessous un exemple de flux de travail pour une telle application. Nous pouvons également ajouter des couches de mise en cache et de base de données pour améliorer la réactivité et réduire les coûts.
Écrire du code en utilisant LLM
LLM est largement utilisé dans le développement pour aider les développeurs à écrire du code plus rapidement et mieux. À la demande du développeur, LLM peut générer du code pour eux. Actuellement, les développeurs doivent encore fournir des instructions détaillées pour LLM. Il est difficile pour LLM de générer automatiquement du code pour l'ensemble du projet.
Certains modèles LLM populaires pour le code incluent StarCoder, StarCoder+, Code T 5, LTM, DIDACT, WizardCoder, FalCoder-7 B et MPT 30 B.
Tous ces modèles peuvent être utilisés pour rédiger des contrats intelligents, mais ils n'ont peut-être pas été formés spécifiquement sur les données des contrats intelligents. Ils ont encore une marge de progression.
Actuellement, il n'y a qu'un seul jeu de données lié aux contrats intelligents disponible sur HuggingFace. Il s'agit de l'ensemble de contrats intelligents audités, contenant 113 000 contrats intelligents. Il peut être utilisé pour des tâches telles que la classification de texte, la génération de texte et la détection de vulnérabilités.
La génération automatique de code peut être plus prometteuse que les outils de développement assisté. La génération automatique de code convient aux contrats intelligents car les contrats intelligents sont relativement courts et relativement simples. LLM peut aider les développeurs à générer automatiquement du code dans l'espace blockchain de plusieurs manières.
test
Tout d'abord, LLM peut générer des tests pour des contrats intelligents bien rédigés. Par exemple, Codium peut générer automatiquement des tests pour des projets écrits. Codium prend actuellement en charge JS et TS. Codium commence par comprendre la base de code, en analysant chaque fonction, docstring et commentaire. Codium écrit ensuite l'analyse de code dans le fichier sous forme de commentaires et génère un plan de test. Les utilisateurs peuvent sélectionner leurs tests préférés et Codium générera le code de test sélectionné.
D'autres outils auxiliaires prennent également en charge la génération de tests pour les fonctions sélectionnées.
Nous pouvons répliquer des fonctionnalités similaires sur GPT-4 en suivant des étapes similaires.
Nous avons d'abord demandé l'analyse du code parce que nous voulions que le LLM consacre plus de temps à cette tâche. Le LLM ne sait pas quelles tâches sont difficiles. Il dépense la même puissance de calcul sur chaque marqueur. Cela peut conduire à des résultats inexacts sur des tâches complexes. Sur la base de ces caractéristiques, nous demandons une analyse de code. De cette façon, LLM passera plus de temps à réfléchir à ces tâches et produira des résultats de meilleure qualité. Cette méthode est également connue sous le nom de "chaîne de pensée".
Pour que cela fonctionne pour des contrats intelligents plus longs, nous avons besoin d'un LLM avec un contexte plus large, ou d'une ingénierie pour préserver la mémoire.
Générer des scripts d'assistance
Deuxièmement, nous pouvons utiliser LLM pour générer automatiquement des scripts auxiliaires, tels que des scripts de déploiement.
Les scripts de déploiement réduisent les erreurs potentielles lors des déploiements manuels. L'idée est très similaire à la génération automatique de tests.
Bifurcation automatique
Dans un marché haussier, il y aura de nombreux projets bifurqués où les équipes apporteront de petites modifications de code à partir de leur base de code d'origine. Ce serait un excellent cas d'utilisation pour LLM : LLM peut aider les développeurs à modifier automatiquement le code en fonction des besoins de l'équipe. Habituellement, seules des parties spécifiques du code doivent être modifiées. Ceci est relativement facile à réaliser pour LLM.
Génération automatique de code
Si nous allons un peu plus loin, LLM peut-il générer automatiquement des contrats intelligents en fonction des besoins des développeurs ? Comparés à d'autres logiciels complexes écrits en JS, Rust et Python, les contrats intelligents sont relativement courts et relativement simples. Il n'y a pas beaucoup de bibliothèques externes pour les contrats intelligents. Comprendre comment rédiger un contrat intelligent est relativement facile pour un LLM.
Nous avons déjà constaté des progrès dans la génération automatique de code. GPT-engineer est l'un des pionniers. Il répond aux besoins de l'utilisateur et répond à toutes les questions que le LLM peut avoir, avant le début du codage. Le code comprend également un script qui exécute l'ensemble du projet. GPT-engineer peut démarrer automatiquement des projets pour les développeurs.
Une fois que l'utilisateur a saisi ses exigences, l'ingénieur GPT analyse les exigences et demande quelques éclaircissements. Après avoir rassemblé toutes les informations nécessaires, GPT-engineer produira d'abord la conception du programme, y compris les classes de base, les fonctions et les méthodes nécessaires à cette tâche. GPT-engineer générera ensuite du code pour chaque fichier.
Avec un indice comme celui-ci, nous pouvons générer un contre-contrat intelligent.
Les contrats intelligents se compilent et fonctionnent comme prévu.
Étant donné que GPT-engineer a été conçu à l'origine pour Python, il a quelques problèmes pour générer du code lié à Hardhat. L'ingénieur GPT n'est pas au courant de la dernière version de Hardhat et génère parfois des scripts de test et de déploiement obsolètes.
Si notre code contient des bogues, nous pouvons transmettre les journaux d'erreurs de la base de code et de la console à LLM. LLM peut modifier le code en continu jusqu'à ce que le code puisse s'exécuter avec succès. Nous voyons quelque chose comme ** [flo] (De tels projets se développent dans ce sens. Actuellement, flo ne supporte que JS.
Si nous voulons augmenter la précision de la génération de contrats intelligents, nous pouvons améliorer GPT-engineer avec de nouvelles astuces. Nous pouvons adopter une méthode de développement piloté par les tests, nécessitant LLM pour s'assurer que le programme passe certains tests, afin de mieux contraindre le programme généré.
Utiliser LLM pour lire le code
Étant donné que LLM comprend bien le code, nous pouvons utiliser LLM pour écrire la documentation du développeur. LLM peut également suivre les modifications de code pour mettre à jour la documentation. Nous avons discuté de cette approche à la fin de notre précédent rapport de recherche, Exploring Developer Experience on ZKRUs: An In-Depth Analysis.
La lecture de la documentation est la manière traditionnelle, mais la communication avec le code est une nouvelle manière. Les utilisateurs peuvent poser des questions sur le code et LLM y répondra. LLM peut expliquer le code aux développeurs et les aider à comprendre rapidement les contrats intelligents de la chaîne. LLM peut également aider les personnes sans expérience de codage à comprendre les contrats intelligents.
Nous avons déjà vu cette tendance dans le monde du Web2. De nombreux outils d'assistance au code ont des capacités d'interprétation de code.
Etherescan a également démontré sa nouvelle fonctionnalité, permettant aux utilisateurs de communiquer avec du code, en tirant parti de la puissance de LLM.
Comment l'audit change-t-il lorsque le code est compris ? Dans les expériences sur le papier "avez-vous encore besoin d'un audit manuel des contrats intelligents", LLM a atteint un taux de réussite de 40 % dans l'identification des vulnérabilités, surpassant les bases de référence aléatoires. Cependant, ils ont également un taux élevé de faux positifs. Une incitation appropriée est essentielle, notent les auteurs.
En plus des conseils, les raisons suivantes limitent son application :
Les LLM actuels ne sont pas spécifiquement formés à cette fin. Les données de formation peuvent ne pas impliquer la base de code du contrat intelligent et les rapports d'audit correspondants.
Habituellement, les bogues les plus graves sont des problèmes logiques consistant en différentes fonctions. LLM est actuellement limité par le nombre de jetons. LLM ne peut pas résoudre des problèmes qui ont un contexte très long et nécessitent une capacité logique.
Ces problèmes ne sont pas difficiles à résoudre. Les grands cabinets d'audit ont des milliers de rapports d'audit qui peuvent être utilisés pour affiner le LLM. Des LLM avec de grandes contraintes de jetons émergent. Claude a une limite de 100 000 jetons. Le nouveau LTM-1 a une limite impressionnante de 5 millions de jetons. Grâce aux efforts déployés pour résoudre ces deux problèmes, nous pourrions voir les LLM mieux identifier les vulnérabilités. LLM peut assister les auditeurs et accélérer le processus d'audit. Cela peut se développer progressivement. Voici les trajectoires de développement possibles :
Aidez les auditeurs à organiser la langue et le format des rapports. Cela garantit la cohérence linguistique au sein d'un même cabinet d'audit. Souvent, différents groupes peuvent avoir un vocabulaire préféré différent.
Aider les auditeurs à identifier et vérifier les vulnérabilités potentielles.
Générez automatiquement un projet de rapport d'audit.
Utilisez LLM pour aider la communauté
La gouvernance est un élément essentiel de la communauté. Les membres de la communauté ont le droit de voter pour leurs propositions préférées. Ces propositions façonneront l'avenir du produit.
Pour les propositions importantes, il y aura beaucoup d'informations générales et de discussions communautaires. Il est difficile pour les membres de la communauté de bien comprendre ce contexte avant de voter. LLM peut aider les membres de la communauté à comprendre rapidement l'impact futur de leurs choix et les aider à voter.
Les robots de réponse aux questions sont une autre application potentielle. Nous avons vu des robots de questions-réponses basés sur la documentation du projet. Nous pouvons aller plus loin pour construire une plus grande base de données de connaissances. Nous pouvons brancher différents médias et sources comme des présentations, des podcasts, GitHub, des chats Discord et des espaces Twitter. Les robots de questions-réponses existent non seulement dans la barre de recherche de documentation, mais peuvent également fournir une assistance instantanée aux membres de la communauté sur Discord, ou diffuser la vision du projet sur Twitter et répondre à toutes les questions.
AwesomeQA se développe actuellement dans ce sens. Il implémente trois fonctions :
Utilisez l'intégration ChatGPT pour répondre aux questions des membres de la communauté
Obtenez des informations basées sur les données basées sur les messages des membres de la communauté, tels que l'analyse de la FAQ
Découvrez quels messages sont importants, tels que les problèmes non résolus
L'une des difficultés actuellement rencontrées par les robots de réponse aux questions est de savoir comment obtenir avec précision le contexte pertinent à partir de la base de données vectorielles et fournir le contexte au LLM. Par exemple, si un utilisateur demande une requête avec des filtres sur plusieurs caractéristiques pour plusieurs éléments, le robot peut ne pas être en mesure de récupérer le contexte pertinent à partir de la base de données vectorielle.
La mise à jour de la base de données vectorielles est un autre problème. La solution actuelle consiste à reconstruire la base de données vectorielles ou à mettre à jour la base de données vectorielles via l'espace de noms. L'ajout d'espaces de noms aux représentations incorporées est similaire à l'association d'étiquettes aux données. Cela aide les développeurs à trouver et à mettre à jour plus facilement les intégrations appropriées.
Utilisez LLM pour suivre le marché
Le marché change beaucoup et beaucoup de choses se produisent chaque jour. Comme KOL (Key Opinion Leaders) qui publie de nouvelles idées et réflexions, des newsletters et des e-mails sur les produits qui affluent dans votre boîte de réception. LLM peut sélectionner pour vous les idées et les actualités les plus importantes. Il résume également le contenu pour raccourcir votre temps de lecture et vous aider à suivre la dynamique du marché.
minmax.ai est dédié au domaine du journalisme. Ils fournissent des résumés des dernières nouvelles sur un sujet particulier et fournissent également une analyse des sentiments sur ce sujet.
Les reportages ennuyeux retirent le contenu sensationnel des actualités et se concentrent sur les détails importants pour aider les lecteurs à prendre les bonnes décisions.
Le robo-advisory est l'un des domaines les plus en vogue en ce moment. LLM peut favoriser l'utilisation de conseils robotisés. LLM peut fournir des recommandations de trading et aider les utilisateurs à gérer des portefeuilles sur la base d'informations boursières.
Des projets comme Numer.ai utilisent l'IA pour prédire les marchés et gérer les fonds. Il existe également des portefeuilles gérés par LLM. Les utilisateurs peuvent suivre ces portefeuilles sur Robinhood.
Composer apporte des algorithmes de trading avec l'IA. L'IA construit des stratégies de trading spécifiques basées sur les informations des utilisateurs. L'IA testera alors automatiquement ces stratégies de trading. Si l'utilisateur est satisfait des politiques, Composer peut appliquer automatiquement ces politiques pour l'utilisateur.
Analyser des projets à l'aide de LLM
Les projets analytiques impliquent souvent la lecture de gros volumes de documents et la rédaction de longs articles de recherche. LLM peut lire et écrire de courts paragraphes. Si nous pouvons étendre ses capacités à de longs paragraphes, cela signifie-t-il que LLM peut en quelque sorte produire des recherches de projet ? Très probablement oui. Nous pouvons saisir des livres blancs, des documents ou des présentations d'événements et laisser LLM analyser les projets et les fondateurs. Limité par le nombre de jetons, on peut d'abord rédiger le plan du papier, puis mettre à jour et optimiser chaque partie en fonction des informations qu'elle obtient.
Des projets comme BabyAGI progressent déjà dans cette direction. Voici un exemple de sortie de BlockAGI, une variante de BabyAGI.
LLM peut également analyser la personnalité du fondateur sur la base de Twitter et de la prise de parole en public. Par exemple, Tweet Analyzer peut prendre des tweets récents et utiliser LLM pour analyser les traits personnels.
en conclusion
Voici huit directions spécifiques dans lesquelles LLM peut aider la communauté blockchain dans un avenir proche :
Intégrez les fonctions AI/LLM intégrées dans la blockchain.
Utilisez LLM pour analyser les enregistrements de transaction.
Améliorez la sécurité avec LLM.
Écrivez du code à l'aide de LLM.
Utilisez le LLM pour lire le code.
Tirez parti du LLM pour aider la communauté.
Utilisez LLM pour suivre le marché.
Appliquer LLM pour analyser les projets.
LLM peut bénéficier à tous les membres de l'espace crypto, y compris les propriétaires de projets, les analystes et les ingénieurs. Les fondateurs peuvent utiliser LLM pour automatiser des tâches telles que la documentation et les questions-réponses. Les ingénieurs peuvent utiliser LLM pour écrire du code plus rapidement et de manière plus sûre. Les analystes peuvent rechercher des projets plus facilement.
À long terme, nous voyons également une opportunité potentielle d'appliquer LLM dans l'espace GameFi. LLM peut générer des tâches plus intéressantes dans le jeu et jouer différents rôles dans le jeu. Le monde du jeu se sentira plus réel et intéressant. Les PNJ réagiront dynamiquement en fonction des actions du joueur. Les quêtes auront plus de fins en fonction de la façon dont l'utilisateur les résout.
Le LLM peut être intégré dans des projets existants, mais ouvre également des opportunités pour les nouveaux entrants. Par exemple, il existe déjà des acteurs de premier plan dans le domaine de l'analyse des données en chaîne. Dune peut intégrer LLM pour améliorer l'expérience utilisateur. Cependant, LLM présente également des opportunités pour les nouveaux entrants. Ces nouveaux entrants peuvent placer le LLM au cœur de la conception de leurs produits. Ces produits créatifs dirigés par l'IA et centrés sur l'IA peuvent apporter une nouvelle concurrence dans le domaine de l'analyse des données en chaîne.
Il existe un chevauchement dans les utilisations de LLM dans les mondes Web2 et Web3, mais ils peuvent implémenter des produits de différentes manières. Parce que les données que nous utilisons dans le monde Web3 ne sont pas les mêmes que les données dans le monde Web2. La base de connaissances de LLM peut également être différente dans Web2 et Web3. Les données Web3 impliquent des blockchains, des prix de jetons, des tweets, des projets et des recherches. Par conséquent, Web2 et Web3 nécessitent des LLM différents pour servir les utilisateurs finaux.
En raison du boom du LLM, nous constatons la popularité croissante d'AIxBlockchain. Cependant, de nombreux AIxBlockhains ne sont pas pratiques pendant une courte période. La blockchain et les preuves à connaissance nulle ne peuvent pas fournir une puissance de calcul à grande échelle pour la formation et le raisonnement de certains modèles complexes. Les petits modèles ne peuvent pas résoudre des tâches complexes. Une approche plus pratique consiste à appliquer LLM dans le domaine de la blockchain. LLM a récemment fait plus de progrès que d'autres sujets d'IA. Il est plus logique de combiner LLM et blockchain.
La communauté LLM travaille à l'amélioration des limites de jetons et à l'augmentation de la précision des réponses. Ce qui reste à la communauté blockchain, ce sont les sources de données et les pipelines de données. Les données nettoyées peuvent être utilisées pour affiner le LLM afin d'améliorer la précision dans l'environnement de la blockchain. Les pipelines de données peuvent intégrer davantage d'applications liées à la blockchain dans LLM et développer des agents plus spécifiques à la cryptographie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
IOSG Ventures : Discussion approfondie sur la nouvelle possibilité de LLM d'ouvrir l'interaction blockchain
Auteur original : Yiping, IOSG Ventures
Bienvenue dans le deuxième article de notre série de recherche sur les grands modèles de langage (LLM) et la blockchain. Dans l'article précédent, nous avons expliqué comment intégrer la technologie LLM et blockchain à un niveau technique, et pourquoi le cadre LLM est très adapté au domaine de la blockchain. Nous décrivons également des voies potentielles pour intégrer LLM à la blockchain à l'avenir.
Dans cet article, nous adopterons une approche plus pratique et plongerons dans huit domaines d'application spécifiques qui, selon nous, changeront radicalement l'expérience utilisateur de la blockchain. Encore plus excitant, nous prévoyons que ces applications révolutionnaires deviendront une réalité au cours de la prochaine année.
Rejoignez-nous alors que nous découvrons l'avenir de l'interaction blockchain. Voici un bref aperçu des huit applications dont nous parlerons :
Intégration des capacités intégrées d'IA/LLM dans la blockchain
Utilisation de LLM pour analyser les enregistrements de transaction
Améliorez la sécurité avec LLM
Écrire du code avec LLM
Lire le code avec LLM
Aider la communauté avec LLM
Mettre en œuvre LLM pour suivre le marché
Appliquer LLM pour analyser les projets
## Intégrez les capacités intégrées d'IA/LLM dans la blockchain
La blockchain aura des fonctions et des modèles d'intelligence artificielle intégrés. Les développeurs peuvent accéder aux fonctions d'IA pour effectuer des tâches ML de signature telles que la classification, la régression, la complétion de texte et l'AIGC en chaîne. Les développeurs peuvent appeler ces fonctions d'intelligence artificielle via des contrats intelligents.
Grâce à ces fonctionnalités intégrées, les développeurs peuvent donner intelligence et autonomie à leurs contrats intelligents. La classification, la régression et l'AIGC sont des tâches d'IA typiques. Voyons l'application de ces fonctions dans le domaine de la blockchain et quelques exemples de projets.
Classification
La classification peut être utilisée pour déterminer si une adresse est un robot ou une personne réelle. Cela pourrait changer la situation actuelle des ventes de NFT. La classification peut également améliorer la sécurité de l'écosystème DeFi. Les contrats intelligents DeFi peuvent filtrer les transactions malveillantes et empêcher la perte de fonds.
Régression
L'analyse de régression peut être utilisée pour la prévision, appliquée à la gestion de fonds et d'actifs. Numer.ai utilise déjà l'intelligence artificielle pour les aider à gérer leur argent. Numer fournit des données boursières de haute qualité sur lesquelles les data scientists travaillent et appliquent le machine learning pour prédire le marché boursier.
###AIGC
De nombreux projets NFT tentent de construire un univers IP. Cependant, leur contenu limité ne peut pas supporter un univers. Si nous pouvons utiliser AIGC sur la chaîne, nous pouvons produire d'innombrables contenus avec un style de marque emblématique similaire à un coût relativement faible. Les modèles peuvent produire du texte, des illustrations, de la musique, du son et même de la vidéo. Cela augmente considérablement la taille de l'univers IP. Les participants de la communauté peuvent affiner collectivement le modèle pour répondre à leurs attentes. Le processus de mise au point permet également à la communauté de se sentir impliquée.
Botto utilise le modèle AIGC pour générer du contenu artistique. La communauté vote sur ses images préférées pour affiner collectivement le modèle AIGC.
Si nous considérons la blockchain comme une base de données, nous constatons également que Databend intègre des capacités d'intelligence artificielle intégrées dans sa base de données. Ils fournissent les fonctions suivantes :
Fournir des capacités d'IA pour la blockchain
Nous savons que certains projets apportent des capacités d'IA à la blockchain.
Gizeh travaille sur ZKML. Il génère des preuves de raisonnement hors chaîne et les vérifie en chaîne. Il prend désormais en charge les blockchains compatibles avec la machine virtuelle Ethereum ainsi que StarkNet. Giza a récemment annoncé un partenariat avec Yearn.finance, par lequel Yearn tirera parti des capacités d'intelligence artificielle de Giza pour améliorer ses capacités d'évaluation des risques.
Modulus Labs travaille également dans une direction similaire. Ils travaillent plus dur pour améliorer les systèmes de preuve afin de générer des circuits hautes performances pour l'intelligence artificielle. Ils ont publié des démos telles que Chess AI et Ethereum Price Prediction AI. Leur nouveau projet de démonstration, zkMon, est le premier objet de collection Generative Adversarial Network NFT à preuve de connaissance zéro au monde.
Utilisez LLM pour analyser les enregistrements de transaction
L'analyse des enregistrements de transaction est généralement effectuée par des applications spécifiques telles que Debank. L'analyse manuelle des enregistrements de transactions par des humains est difficile. L'analyse manuelle implique la collecte, le nettoyage et l'analyse des données, ce qui nécessite que les utilisateurs aient des compétences en codage. En raison de la capacité de LLM à analyser et à visualiser les données, nous avons maintenant une nouvelle approche. Grâce à LLM, nous pouvons analyser les données en chaîne en fonction des besoins personnalisés. Nous pouvons analyser le taux de victoire, le ratio de performance ou toute autre information que nous voulons connaître.
RSS3 a développé un plugin ChatGPT appelé Web3 User Activity pour travailler dans ce sens. Les utilisateurs peuvent saisir l'adresse du portefeuille, ENS ou Lens pour interroger les activités en chaîne. Ce plugin affichera les informations de transaction sous une forme lisible par l'homme. Malheureusement, cependant, il ne peut pas effectuer de requêtes complexes telles que le nombre de détenteurs d'Azuki, les contrats intelligents les plus populaires, etc. Les utilisateurs doivent également être conscients que les adresses et les balises fournies par les plugins ne sont pas nécessairement exactes.
DeFiLlama a également publié un plugin ChatGPT. Les utilisateurs peuvent interroger toutes les données disponibles sur DeFiLlama en langage naturel. Il peut également effectuer des opérations simples de filtrage et de tri :
Dune intègre également GPT dans son produit pour activer les fonctionnalités suivantes :
Tirez parti de LLM pour renforcer la sécurité
En raison de ses capacités logiques et de raisonnement, LLM peut être utilisé pour filtrer certaines transactions malveillantes et agir comme un pare-feu pour les contrats intelligents. Voici un exemple concret de la façon de bloquer l'activité du bot :
Après avoir saisi l'adresse, LLM peut obtenir toutes les données de transaction via un plug-in tiers, puis analyser ces enregistrements de transaction et établir la possibilité que l'adresse soit un robot. Cette fonctionnalité peut être intégrée dans les Dapps où les bots ne sont pas les bienvenus, comme les ventes NFT.
Vous trouverez ci-dessous un exemple simple via ChatGPT. ChatGPT récupère les enregistrements de transaction du compte via le plug-in d'activité utilisateur Web3 développé par RSS3, puis analyse ces enregistrements de transaction et indique la possibilité que le compte soit un robot.
Si nous alimentons plus d'enregistrements de transactions et affinons le LLM sur l'ensemble de données lié au bot, nous pouvons obtenir des résultats plus précis. Vous trouverez ci-dessous un exemple de flux de travail pour une telle application. Nous pouvons également ajouter des couches de mise en cache et de base de données pour améliorer la réactivité et réduire les coûts.
Écrire du code en utilisant LLM
LLM est largement utilisé dans le développement pour aider les développeurs à écrire du code plus rapidement et mieux. À la demande du développeur, LLM peut générer du code pour eux. Actuellement, les développeurs doivent encore fournir des instructions détaillées pour LLM. Il est difficile pour LLM de générer automatiquement du code pour l'ensemble du projet.
Certains modèles LLM populaires pour le code incluent StarCoder, StarCoder+, Code T 5, LTM, DIDACT, WizardCoder, FalCoder-7 B et MPT 30 B.
Tous ces modèles peuvent être utilisés pour rédiger des contrats intelligents, mais ils n'ont peut-être pas été formés spécifiquement sur les données des contrats intelligents. Ils ont encore une marge de progression.
Actuellement, il n'y a qu'un seul jeu de données lié aux contrats intelligents disponible sur HuggingFace. Il s'agit de l'ensemble de contrats intelligents audités, contenant 113 000 contrats intelligents. Il peut être utilisé pour des tâches telles que la classification de texte, la génération de texte et la détection de vulnérabilités.
La génération automatique de code peut être plus prometteuse que les outils de développement assisté. La génération automatique de code convient aux contrats intelligents car les contrats intelligents sont relativement courts et relativement simples. LLM peut aider les développeurs à générer automatiquement du code dans l'espace blockchain de plusieurs manières.
test
Tout d'abord, LLM peut générer des tests pour des contrats intelligents bien rédigés. Par exemple, Codium peut générer automatiquement des tests pour des projets écrits. Codium prend actuellement en charge JS et TS. Codium commence par comprendre la base de code, en analysant chaque fonction, docstring et commentaire. Codium écrit ensuite l'analyse de code dans le fichier sous forme de commentaires et génère un plan de test. Les utilisateurs peuvent sélectionner leurs tests préférés et Codium générera le code de test sélectionné.
D'autres outils auxiliaires prennent également en charge la génération de tests pour les fonctions sélectionnées.
Nous pouvons répliquer des fonctionnalités similaires sur GPT-4 en suivant des étapes similaires.
Nous avons d'abord demandé l'analyse du code parce que nous voulions que le LLM consacre plus de temps à cette tâche. Le LLM ne sait pas quelles tâches sont difficiles. Il dépense la même puissance de calcul sur chaque marqueur. Cela peut conduire à des résultats inexacts sur des tâches complexes. Sur la base de ces caractéristiques, nous demandons une analyse de code. De cette façon, LLM passera plus de temps à réfléchir à ces tâches et produira des résultats de meilleure qualité. Cette méthode est également connue sous le nom de "chaîne de pensée".
Pour que cela fonctionne pour des contrats intelligents plus longs, nous avons besoin d'un LLM avec un contexte plus large, ou d'une ingénierie pour préserver la mémoire.
Générer des scripts d'assistance
Deuxièmement, nous pouvons utiliser LLM pour générer automatiquement des scripts auxiliaires, tels que des scripts de déploiement.
Les scripts de déploiement réduisent les erreurs potentielles lors des déploiements manuels. L'idée est très similaire à la génération automatique de tests.
Bifurcation automatique
Dans un marché haussier, il y aura de nombreux projets bifurqués où les équipes apporteront de petites modifications de code à partir de leur base de code d'origine. Ce serait un excellent cas d'utilisation pour LLM : LLM peut aider les développeurs à modifier automatiquement le code en fonction des besoins de l'équipe. Habituellement, seules des parties spécifiques du code doivent être modifiées. Ceci est relativement facile à réaliser pour LLM.
Génération automatique de code
Si nous allons un peu plus loin, LLM peut-il générer automatiquement des contrats intelligents en fonction des besoins des développeurs ? Comparés à d'autres logiciels complexes écrits en JS, Rust et Python, les contrats intelligents sont relativement courts et relativement simples. Il n'y a pas beaucoup de bibliothèques externes pour les contrats intelligents. Comprendre comment rédiger un contrat intelligent est relativement facile pour un LLM.
Nous avons déjà constaté des progrès dans la génération automatique de code. GPT-engineer est l'un des pionniers. Il répond aux besoins de l'utilisateur et répond à toutes les questions que le LLM peut avoir, avant le début du codage. Le code comprend également un script qui exécute l'ensemble du projet. GPT-engineer peut démarrer automatiquement des projets pour les développeurs.
Une fois que l'utilisateur a saisi ses exigences, l'ingénieur GPT analyse les exigences et demande quelques éclaircissements. Après avoir rassemblé toutes les informations nécessaires, GPT-engineer produira d'abord la conception du programme, y compris les classes de base, les fonctions et les méthodes nécessaires à cette tâche. GPT-engineer générera ensuite du code pour chaque fichier.
Avec un indice comme celui-ci, nous pouvons générer un contre-contrat intelligent.
Les contrats intelligents se compilent et fonctionnent comme prévu.
Étant donné que GPT-engineer a été conçu à l'origine pour Python, il a quelques problèmes pour générer du code lié à Hardhat. L'ingénieur GPT n'est pas au courant de la dernière version de Hardhat et génère parfois des scripts de test et de déploiement obsolètes.
Si notre code contient des bogues, nous pouvons transmettre les journaux d'erreurs de la base de code et de la console à LLM. LLM peut modifier le code en continu jusqu'à ce que le code puisse s'exécuter avec succès. Nous voyons quelque chose comme ** [flo] (De tels projets se développent dans ce sens. Actuellement, flo ne supporte que JS.
Si nous voulons augmenter la précision de la génération de contrats intelligents, nous pouvons améliorer GPT-engineer avec de nouvelles astuces. Nous pouvons adopter une méthode de développement piloté par les tests, nécessitant LLM pour s'assurer que le programme passe certains tests, afin de mieux contraindre le programme généré.
Utiliser LLM pour lire le code
Étant donné que LLM comprend bien le code, nous pouvons utiliser LLM pour écrire la documentation du développeur. LLM peut également suivre les modifications de code pour mettre à jour la documentation. Nous avons discuté de cette approche à la fin de notre précédent rapport de recherche, Exploring Developer Experience on ZKRUs: An In-Depth Analysis.
La lecture de la documentation est la manière traditionnelle, mais la communication avec le code est une nouvelle manière. Les utilisateurs peuvent poser des questions sur le code et LLM y répondra. LLM peut expliquer le code aux développeurs et les aider à comprendre rapidement les contrats intelligents de la chaîne. LLM peut également aider les personnes sans expérience de codage à comprendre les contrats intelligents.
Nous avons déjà vu cette tendance dans le monde du Web2. De nombreux outils d'assistance au code ont des capacités d'interprétation de code.
Etherescan a également démontré sa nouvelle fonctionnalité, permettant aux utilisateurs de communiquer avec du code, en tirant parti de la puissance de LLM.
Comment l'audit change-t-il lorsque le code est compris ? Dans les expériences sur le papier "avez-vous encore besoin d'un audit manuel des contrats intelligents", LLM a atteint un taux de réussite de 40 % dans l'identification des vulnérabilités, surpassant les bases de référence aléatoires. Cependant, ils ont également un taux élevé de faux positifs. Une incitation appropriée est essentielle, notent les auteurs.
En plus des conseils, les raisons suivantes limitent son application :
Ces problèmes ne sont pas difficiles à résoudre. Les grands cabinets d'audit ont des milliers de rapports d'audit qui peuvent être utilisés pour affiner le LLM. Des LLM avec de grandes contraintes de jetons émergent. Claude a une limite de 100 000 jetons. Le nouveau LTM-1 a une limite impressionnante de 5 millions de jetons. Grâce aux efforts déployés pour résoudre ces deux problèmes, nous pourrions voir les LLM mieux identifier les vulnérabilités. LLM peut assister les auditeurs et accélérer le processus d'audit. Cela peut se développer progressivement. Voici les trajectoires de développement possibles :
Aidez les auditeurs à organiser la langue et le format des rapports. Cela garantit la cohérence linguistique au sein d'un même cabinet d'audit. Souvent, différents groupes peuvent avoir un vocabulaire préféré différent.
Aider les auditeurs à identifier et vérifier les vulnérabilités potentielles.
Générez automatiquement un projet de rapport d'audit.
Utilisez LLM pour aider la communauté
La gouvernance est un élément essentiel de la communauté. Les membres de la communauté ont le droit de voter pour leurs propositions préférées. Ces propositions façonneront l'avenir du produit.
Pour les propositions importantes, il y aura beaucoup d'informations générales et de discussions communautaires. Il est difficile pour les membres de la communauté de bien comprendre ce contexte avant de voter. LLM peut aider les membres de la communauté à comprendre rapidement l'impact futur de leurs choix et les aider à voter.
Les robots de réponse aux questions sont une autre application potentielle. Nous avons vu des robots de questions-réponses basés sur la documentation du projet. Nous pouvons aller plus loin pour construire une plus grande base de données de connaissances. Nous pouvons brancher différents médias et sources comme des présentations, des podcasts, GitHub, des chats Discord et des espaces Twitter. Les robots de questions-réponses existent non seulement dans la barre de recherche de documentation, mais peuvent également fournir une assistance instantanée aux membres de la communauté sur Discord, ou diffuser la vision du projet sur Twitter et répondre à toutes les questions.
AwesomeQA se développe actuellement dans ce sens. Il implémente trois fonctions :
L'une des difficultés actuellement rencontrées par les robots de réponse aux questions est de savoir comment obtenir avec précision le contexte pertinent à partir de la base de données vectorielles et fournir le contexte au LLM. Par exemple, si un utilisateur demande une requête avec des filtres sur plusieurs caractéristiques pour plusieurs éléments, le robot peut ne pas être en mesure de récupérer le contexte pertinent à partir de la base de données vectorielle.
La mise à jour de la base de données vectorielles est un autre problème. La solution actuelle consiste à reconstruire la base de données vectorielles ou à mettre à jour la base de données vectorielles via l'espace de noms. L'ajout d'espaces de noms aux représentations incorporées est similaire à l'association d'étiquettes aux données. Cela aide les développeurs à trouver et à mettre à jour plus facilement les intégrations appropriées.
Utilisez LLM pour suivre le marché
Le marché change beaucoup et beaucoup de choses se produisent chaque jour. Comme KOL (Key Opinion Leaders) qui publie de nouvelles idées et réflexions, des newsletters et des e-mails sur les produits qui affluent dans votre boîte de réception. LLM peut sélectionner pour vous les idées et les actualités les plus importantes. Il résume également le contenu pour raccourcir votre temps de lecture et vous aider à suivre la dynamique du marché.
minmax.ai est dédié au domaine du journalisme. Ils fournissent des résumés des dernières nouvelles sur un sujet particulier et fournissent également une analyse des sentiments sur ce sujet.
Les reportages ennuyeux retirent le contenu sensationnel des actualités et se concentrent sur les détails importants pour aider les lecteurs à prendre les bonnes décisions.
Le robo-advisory est l'un des domaines les plus en vogue en ce moment. LLM peut favoriser l'utilisation de conseils robotisés. LLM peut fournir des recommandations de trading et aider les utilisateurs à gérer des portefeuilles sur la base d'informations boursières.
Des projets comme Numer.ai utilisent l'IA pour prédire les marchés et gérer les fonds. Il existe également des portefeuilles gérés par LLM. Les utilisateurs peuvent suivre ces portefeuilles sur Robinhood.
Composer apporte des algorithmes de trading avec l'IA. L'IA construit des stratégies de trading spécifiques basées sur les informations des utilisateurs. L'IA testera alors automatiquement ces stratégies de trading. Si l'utilisateur est satisfait des politiques, Composer peut appliquer automatiquement ces politiques pour l'utilisateur.
Analyser des projets à l'aide de LLM
Les projets analytiques impliquent souvent la lecture de gros volumes de documents et la rédaction de longs articles de recherche. LLM peut lire et écrire de courts paragraphes. Si nous pouvons étendre ses capacités à de longs paragraphes, cela signifie-t-il que LLM peut en quelque sorte produire des recherches de projet ? Très probablement oui. Nous pouvons saisir des livres blancs, des documents ou des présentations d'événements et laisser LLM analyser les projets et les fondateurs. Limité par le nombre de jetons, on peut d'abord rédiger le plan du papier, puis mettre à jour et optimiser chaque partie en fonction des informations qu'elle obtient.
Des projets comme BabyAGI progressent déjà dans cette direction. Voici un exemple de sortie de BlockAGI, une variante de BabyAGI.
LLM peut également analyser la personnalité du fondateur sur la base de Twitter et de la prise de parole en public. Par exemple, Tweet Analyzer peut prendre des tweets récents et utiliser LLM pour analyser les traits personnels.
en conclusion
Voici huit directions spécifiques dans lesquelles LLM peut aider la communauté blockchain dans un avenir proche :
Intégrez les fonctions AI/LLM intégrées dans la blockchain.
Utilisez LLM pour analyser les enregistrements de transaction.
Améliorez la sécurité avec LLM.
Écrivez du code à l'aide de LLM.
Utilisez le LLM pour lire le code.
Tirez parti du LLM pour aider la communauté.
Utilisez LLM pour suivre le marché.
Appliquer LLM pour analyser les projets.
LLM peut bénéficier à tous les membres de l'espace crypto, y compris les propriétaires de projets, les analystes et les ingénieurs. Les fondateurs peuvent utiliser LLM pour automatiser des tâches telles que la documentation et les questions-réponses. Les ingénieurs peuvent utiliser LLM pour écrire du code plus rapidement et de manière plus sûre. Les analystes peuvent rechercher des projets plus facilement.
À long terme, nous voyons également une opportunité potentielle d'appliquer LLM dans l'espace GameFi. LLM peut générer des tâches plus intéressantes dans le jeu et jouer différents rôles dans le jeu. Le monde du jeu se sentira plus réel et intéressant. Les PNJ réagiront dynamiquement en fonction des actions du joueur. Les quêtes auront plus de fins en fonction de la façon dont l'utilisateur les résout.
Le LLM peut être intégré dans des projets existants, mais ouvre également des opportunités pour les nouveaux entrants. Par exemple, il existe déjà des acteurs de premier plan dans le domaine de l'analyse des données en chaîne. Dune peut intégrer LLM pour améliorer l'expérience utilisateur. Cependant, LLM présente également des opportunités pour les nouveaux entrants. Ces nouveaux entrants peuvent placer le LLM au cœur de la conception de leurs produits. Ces produits créatifs dirigés par l'IA et centrés sur l'IA peuvent apporter une nouvelle concurrence dans le domaine de l'analyse des données en chaîne.
Il existe un chevauchement dans les utilisations de LLM dans les mondes Web2 et Web3, mais ils peuvent implémenter des produits de différentes manières. Parce que les données que nous utilisons dans le monde Web3 ne sont pas les mêmes que les données dans le monde Web2. La base de connaissances de LLM peut également être différente dans Web2 et Web3. Les données Web3 impliquent des blockchains, des prix de jetons, des tweets, des projets et des recherches. Par conséquent, Web2 et Web3 nécessitent des LLM différents pour servir les utilisateurs finaux.
En raison du boom du LLM, nous constatons la popularité croissante d'AIxBlockchain. Cependant, de nombreux AIxBlockhains ne sont pas pratiques pendant une courte période. La blockchain et les preuves à connaissance nulle ne peuvent pas fournir une puissance de calcul à grande échelle pour la formation et le raisonnement de certains modèles complexes. Les petits modèles ne peuvent pas résoudre des tâches complexes. Une approche plus pratique consiste à appliquer LLM dans le domaine de la blockchain. LLM a récemment fait plus de progrès que d'autres sujets d'IA. Il est plus logique de combiner LLM et blockchain.
La communauté LLM travaille à l'amélioration des limites de jetons et à l'augmentation de la précision des réponses. Ce qui reste à la communauté blockchain, ce sont les sources de données et les pipelines de données. Les données nettoyées peuvent être utilisées pour affiner le LLM afin d'améliorer la précision dans l'environnement de la blockchain. Les pipelines de données peuvent intégrer davantage d'applications liées à la blockchain dans LLM et développer des agents plus spécifiques à la cryptographie.