Bienvenido al segundo artículo de nuestra serie de investigación sobre el modelo de lenguaje grande (LLM) y la cadena de bloques. En el artículo anterior, discutimos cómo integrar la tecnología LLM y blockchain desde un nivel técnico, y por qué el marco LLM es muy adecuado para el campo blockchain. También describimos caminos potenciales para integrar LLM con blockchain en el futuro.
En esta publicación, adoptaremos un enfoque más práctico y nos sumergiremos en ocho áreas de aplicación específicas que creemos que cambiarán drásticamente la experiencia del usuario de blockchain. Aún más emocionante, predecimos que estas aplicaciones innovadoras se harán realidad durante el próximo año.
Únase a nosotros mientras descubrimos el futuro de la interacción de blockchain. Aquí hay una breve descripción de las ocho aplicaciones que discutiremos:
Integración de capacidades integradas de IA/LLM en la cadena de bloques
Uso de LLM para analizar registros de transacciones
Mejore la seguridad con LLM
Escribir código con LLM
Leer código con LLM
Ayudar a la comunidad con LLM
Implementar LLM para rastrear el mercado
Aplicar LLM para analizar proyectos
Integre las capacidades integradas de AI/LLM en la cadena de bloques
La cadena de bloques tendrá funciones y modelos de inteligencia artificial incorporados. Los desarrolladores pueden acceder a las funciones de IA para realizar tareas de ML de firma, como clasificación, regresión, finalización de texto y AIGC en cadena. Los desarrolladores pueden llamar a estas funciones de inteligencia artificial a través de contratos inteligentes.
Con estas funciones integradas, los desarrolladores pueden dar inteligencia y autonomía a sus contratos inteligentes. La clasificación, la regresión y AIGC son tareas típicas de IA. Veamos la aplicación de estas funciones en el campo de la cadena de bloques y algunos proyectos de ejemplo.
Clasificación
La clasificación se puede utilizar para determinar si una dirección es un bot o una persona real. Esto podría cambiar la situación actual de las ventas de NFT. La clasificación también puede mejorar la seguridad del ecosistema DeFi. Los contratos inteligentes de DeFi pueden filtrar transacciones maliciosas y evitar la pérdida de fondos.
Regresión
El análisis de regresión se puede utilizar para la previsión, aplicado a la gestión de fondos y activos. Numer.ai ya usa inteligencia artificial para ayudarlos a administrar el dinero. Numer proporciona datos del mercado de valores de alta calidad en los que trabajan los científicos de datos y aplican el aprendizaje automático para predecir el mercado de valores.
AIG
Muchos proyectos NFT están tratando de construir un universo IP. Sin embargo, su contenido limitado no puede soportar un universo. Si podemos usar AIGC en la cadena, podemos generar innumerables contenidos con un estilo de marca icónico similar a un costo relativamente bajo. Los modelos pueden generar texto, ilustraciones, música, sonido e incluso video. Esto amplía enormemente el tamaño del universo IP. Los participantes de la comunidad pueden ajustar colectivamente el modelo para satisfacer sus expectativas. El proceso de puesta a punto también hace que la comunidad se sienta involucrada.
Botto utiliza el modelo AIGC para generar contenido artístico. La comunidad vota por sus imágenes favoritas para ajustar colectivamente el modelo AIGC.
Si observamos la cadena de bloques como una base de datos, también encontramos que Databend incorpora capacidades de inteligencia artificial integradas en su base de datos. Proporcionan las siguientes funciones:
ai_embedding_vector: Genera vectores de incrustación para documentos de texto.
ai_text_completion: generar finalización de texto basada en la pista dada.
coseno_distancia: Calcula la distancia del coseno entre dos vectores incrustados.
ai_to_sql: convierte instrucciones en lenguaje natural en consultas SQL.
Proporcione capacidades de IA para la cadena de bloques
Sabemos que algunos proyectos están incorporando capacidades de IA a la cadena de bloques.
Giza está trabajando en ZKML. Genera pruebas de razonamiento fuera de la cadena y las verifica en la cadena. Ahora admite cadenas de bloques compatibles con Ethereum Virtual Machine y StarkNet. Giza anunció recientemente una asociación con Yearn.finance, mediante la cual Yearn aprovechará las capacidades de inteligencia artificial de Giza para mejorar sus capacidades de evaluación de riesgos.
Modulus Labs también está trabajando en una dirección similar. Trabajan más para mejorar los sistemas de prueba para generar circuitos de alto rendimiento para inteligencia artificial. Lanzaron demostraciones como Chess AI y Ethereum Price Prediction AI. Su nuevo proyecto de demostración, zkMon, es el primer coleccionable NFT de la Red Adversaria Generativa a prueba de conocimiento cero del mundo.
Use LLM para analizar registros de transacciones
El análisis de registros de transacciones generalmente lo realizan aplicaciones específicas como Debank. El análisis manual de registros de transacciones por parte de humanos es difícil. El análisis manual implica la recopilación de datos, la limpieza de datos y el análisis de datos, lo que requiere que los usuarios tengan habilidades de codificación. Debido a la capacidad de LLM para analizar y visualizar datos, ahora tenemos un nuevo enfoque. A través de LLM, podemos analizar datos en cadena de acuerdo con necesidades personalizadas. Podemos analizar la tasa de ganancias, el índice de rendimiento o cualquier información que queramos saber.
RSS3 ha desarrollado un complemento ChatGPT llamado Web3 User Activity para trabajar en esta dirección. Los usuarios pueden ingresar la dirección de la billetera, ENS o Lens para consultar las actividades en la cadena. Este complemento generará información de transacción en una forma legible por humanos. Desafortunadamente, sin embargo, no puede realizar consultas complejas, como cuántos titulares de Azuki hay, qué contratos inteligentes son los más populares, etc. Los usuarios también deben tener en cuenta que las direcciones y las etiquetas proporcionadas por los complementos no son necesariamente precisas.
DeFiLlama también lanzó un complemento ChatGPT. Los usuarios pueden consultar cualquier dato disponible en DeFiLlama en lenguaje natural. También puede realizar operaciones simples de filtrado y clasificación:
Dune también está integrando GPT en su producto para habilitar las siguientes funciones:
Interpretación de consultas: use LLM para explicar las consultas
Traducción de consultas: use LLM para traducir otros lenguajes SQL a DuneSQL
Consulta en lenguaje natural: permite a los usuarios escribir consultas en lenguaje natural
Búsqueda: mejora los resultados de búsqueda usando LLM
Base de conocimiento del asistente: un chatbot que permite a los usuarios comunicarse con documentos
Aproveche el LLM para mejorar la seguridad
Debido a sus capacidades de lógica y razonamiento, LLM puede usarse para filtrar algunas transacciones maliciosas y actuar como un cortafuegos para contratos inteligentes. Aquí hay un ejemplo concreto de cómo bloquear la actividad del bot:
Después de ingresar la dirección, LLM puede obtener todos los datos de la transacción a través de un complemento de terceros, luego analizar estos registros de transacciones y elaborar la posibilidad de que la dirección sea un robot. Esta funcionalidad se puede integrar en Dapps donde los bots no son bienvenidos, como las ventas de NFT.
A continuación se muestra un ejemplo simple a través de ChatGPT. ChatGPT recupera los registros de transacciones de la cuenta a través del complemento de actividad del usuario Web3 desarrollado por RSS3, luego analiza estos registros de transacciones y genera la posibilidad de que la cuenta sea un robot.
Si ingresamos más registros de transacciones y ajustamos el LLM en el conjunto de datos relacionado con el bot, podemos lograr resultados más precisos. A continuación se muestra un flujo de trabajo de ejemplo para una aplicación de este tipo. También podemos agregar capas de base de datos y almacenamiento en caché para mejorar la capacidad de respuesta y reducir los costos.
Escribir código usando LLM
LLM se usa ampliamente en el desarrollo para ayudar a los desarrolladores a escribir código mejor y más rápido. Bajo la dirección del desarrollador, LLM puede generar código para ellos. Actualmente, los desarrolladores aún deben proporcionar instrucciones detalladas para LLM. Es difícil para LLM generar código automáticamente para todo el proyecto.
Algunos modelos populares de LLM para código incluyen StarCoder, StarCoder+, Code T 5, LTM, DIDACT, WizardCoder, FalCoder-7 B y MPT 30 B.
Todos estos modelos se pueden usar para escribir contratos inteligentes, pero es posible que no hayan sido entrenados específicamente en datos de contratos inteligentes. Todavía tienen margen de mejora.
Actualmente, solo hay un conjunto de datos relacionado con contratos inteligentes disponible en HuggingFace. Es el conjunto dodger de contratos inteligentes auditados, que contiene 113.000 contratos inteligentes. Se puede utilizar para tareas como clasificación de texto, generación de texto y detección de vulnerabilidades.
La generación automática de código puede ser más prometedora que las herramientas de desarrollo asistido. La generación automática de códigos es adecuada para contratos inteligentes porque los contratos inteligentes son relativamente cortos y relativamente simples. Hay varias formas en que LLM puede ayudar a los desarrolladores a generar código automáticamente en el espacio blockchain.
prueba
Primero, LLM puede generar pruebas para contratos inteligentes bien escritos. Por ejemplo, Codium puede generar automáticamente pruebas para proyectos escritos. Codium actualmente es compatible con JS y TS. Codium comienza por comprender el código base, analizando cada función, cadena de documentación y comentario. Luego, Codium vuelve a escribir el análisis del código en el archivo como comentarios y genera un plan de prueba. Los usuarios pueden seleccionar sus pruebas preferidas y Codium generará el código de prueba seleccionado.
Otras herramientas auxiliares también admiten la generación de pruebas para funciones seleccionadas.
Podemos replicar una funcionalidad similar en GPT-4 siguiendo pasos similares.
Primero solicitamos el análisis del código porque queríamos que el LLM dedicara más tiempo a esta tarea. El LLM no sabe qué tareas son difíciles. Gasta la misma potencia informática en cada marcador. Esto puede conducir a resultados inexactos en tareas complejas. En base a estas características, solicitamos el análisis del código. De esta manera, LLM gastará más tokens/tiempo pensando en estas tareas y generará resultados de mayor calidad. Este método también se conoce como "cadena de pensamiento".
Para que funcione para contratos inteligentes más largos, necesitamos un LLM con un contexto más amplio o algo de ingeniería para preservar la memoria.
Generar scripts de ayuda
En segundo lugar, podemos usar LLM para generar automáticamente algunos scripts auxiliares, como scripts de implementación.
Los scripts de implementación reducen los posibles errores durante las implementaciones manuales. La idea es muy similar a la generación automática de pruebas.
Bifurcación automática
En un mercado alcista, habrá muchos proyectos bifurcados en los que los equipos realicen pequeños cambios en el código de su base de código original. Este sería un gran caso de uso para LLM: LLM puede ayudar a los desarrolladores a modificar automáticamente el código de acuerdo con las necesidades del equipo. Por lo general, solo es necesario cambiar partes específicas del código. Esto es relativamente fácil de lograr para LLM.
Generación automática de código
Si vamos un paso más allá, ¿puede LLM generar automáticamente contratos inteligentes según las necesidades de los desarrolladores? En comparación con otro software complejo escrito en JS, Rust y Python, los contratos inteligentes son relativamente cortos y relativamente simples. No hay muchas bibliotecas externas para contratos inteligentes. Descubrir cómo escribir un contrato inteligente es relativamente fácil para un LLM.
Ya hemos visto algunos avances en la generación automática de código. GPT-ingeniero es uno de los pioneros. Aborda las necesidades del usuario y responde cualquier pregunta que pueda tener el LLM, antes de que comience la codificación. El código también incluye un script que ejecuta todo el proyecto. GPT-ingeniero puede iniciar automáticamente proyectos para desarrolladores.
Después de que el usuario ingresa sus requisitos, el ingeniero de GPT analiza los requisitos y solicita algunas aclaraciones. Después de recopilar toda la información necesaria, el ingeniero de GPT generará primero el diseño del programa, incluidas las clases principales, las funciones y los métodos necesarios para esta tarea. GPT-engineer luego generará código para cada archivo.
Con una pista como esta, podemos generar un contrato inteligente de contador.
Los contratos inteligentes se compilan y funcionan como se esperaba.
Debido a que GPT-engineer se diseñó originalmente para Python, tiene algunos problemas al generar código relacionado con Hardhat. El ingeniero de GPT no conoce la última versión de Hardhat y, a veces, genera scripts de prueba e implementación obsoletos.
Si nuestro código tiene errores, podemos enviar el código base y los registros de errores de la consola a LLM. LLM puede modificar continuamente el código hasta que el código pueda ejecutarse correctamente. Vemos algo como ** [flo] (Dichos proyectos se están desarrollando en esta dirección. Actualmente, flo solo admite JS.
Si queremos aumentar la precisión de la generación de contratos inteligentes, podemos mejorar el ingeniero GPT con algunos consejos nuevos. Podemos adoptar un método de desarrollo basado en pruebas, que requiere LLM para garantizar que el programa pase ciertas pruebas, a fin de restringir mejor el programa generado.
Usar LLM para leer código
Dado que LLM comprende bien el código, podemos usar LLM para escribir documentación para desarrolladores. LLM también puede realizar un seguimiento de los cambios de código para actualizar la documentación. Discutimos este enfoque al final de nuestro informe de investigación anterior, Explorando la experiencia del desarrollador en ZKRU: un análisis en profundidad.
Leer documentación es la forma tradicional, pero comunicarse con código es una forma nueva. Los usuarios pueden hacer cualquier pregunta sobre el código y LLM les responderá. LLM puede explicar el código a los desarrolladores y ayudarlos a comprender rápidamente los contratos inteligentes en la cadena. LLM también puede ayudar a las personas sin experiencia en codificación a comprender los contratos inteligentes.
Ya hemos visto esta tendencia en el mundo Web2. Muchas herramientas de asistencia de código tienen capacidades de interpretación de código.
Etherescan también demostró su nueva funcionalidad, que permite a los usuarios comunicarse con código, aprovechando el poder de LLM.
¿Cómo cambia la auditoría cuando se entiende el código? En los experimentos sobre el papel "¿todavía necesita una auditoría de contrato inteligente manual?" LLM logró una tasa de aciertos del 40 % en la identificación de vulnerabilidades, superando las líneas de base aleatorias. Sin embargo, también tienen una alta tasa de falsos positivos. Las indicaciones adecuadas son clave, señalan los autores.
Además de las sugerencias, las siguientes razones limitan su aplicación:
Los LLM actuales no están específicamente capacitados para este propósito. Los datos de entrenamiento pueden no incluir el código base del contrato inteligente y los informes de auditoría correspondientes.
Por lo general, los errores más graves son problemas lógicos que consisten en diferentes funciones. LLM actualmente está limitado por la cantidad de tokens. LLM no puede resolver problemas que tienen un contexto muy largo y requieren habilidad lógica.
Estos problemas no son difíciles de resolver. Las grandes firmas de auditoría tienen miles de informes de auditoría que se pueden usar para afinar LLM. Están surgiendo LLM con grandes restricciones de token. Claude tiene un límite de 100.000 fichas. El LTM-1 recién lanzado tiene un impresionante límite de 5 millones de tokens. A través de los esfuerzos para abordar estos dos problemas, es posible que veamos que los LLM mejoran en la identificación de vulnerabilidades. LLM puede ayudar a los auditores y acelerar el proceso de auditoría. Esto puede desarrollarse gradualmente. Aquí hay posibles trayectorias de desarrollo:
Ayudar a los auditores a organizar el lenguaje y el formato de los informes. Esto asegura la consistencia del lenguaje bajo la misma firma de auditoría. A menudo, diferentes grupos pueden tener diferentes vocabularios preferidos.
Ayudar a los auditores a identificar y verificar posibles vulnerabilidades.
Generar automáticamente un borrador de informe de auditoría.
Use LLM para ayudar a la comunidad
La gobernabilidad es una parte crítica de la comunidad. Los miembros de la comunidad tienen derecho a votar por sus propuestas favoritas. Estas propuestas darán forma al futuro del producto.
Para propuestas importantes, habrá mucha información de fondo y discusión comunitaria. Es difícil para los miembros de la comunidad entender completamente este contexto antes de votar. LLM puede ayudar a los miembros de la comunidad a comprender rápidamente el impacto futuro de sus elecciones y ayudarlos a votar.
Los bots de preguntas y respuestas son otra aplicación potencial. Hemos visto bots de preguntas y respuestas basados en la documentación del proyecto. Podemos ir más allá para construir una base de datos de conocimiento más grande. Podemos conectar diferentes medios y fuentes como presentaciones, podcasts, GitHub, chats de Discord y Twitter Spaces. Los bots de preguntas y respuestas no solo existen en la barra de búsqueda de documentación, sino que también pueden brindar asistencia instantánea a los miembros de la comunidad en Discord, o difundir la visión del proyecto en Twitter y responder cualquier pregunta.
AwesomeQA se está desarrollando actualmente en esta dirección. Implementa tres funciones:
Use la integración de ChatGPT para responder preguntas de los miembros de la comunidad
Obtenga información basada en datos basada en mensajes de miembros de la comunidad, como análisis de preguntas frecuentes
Descubra qué mensajes son importantes, como los problemas no resueltos
Una de las dificultades que enfrentan actualmente los robots de respuesta a preguntas es cómo obtener con precisión el contexto relevante de la base de datos de vectores y proporcionar el contexto a LLM. Por ejemplo, si un usuario solicita una consulta con filtros sobre múltiples funciones para múltiples elementos, es posible que el robot no pueda recuperar el contexto relevante de la base de datos vectorial.
La actualización de la base de datos de vectores es otro problema. La solución actual es reconstruir la base de datos de vectores o actualizar la base de datos de vectores a través del espacio de nombres. Agregar espacios de nombres a incrustaciones es similar a adjuntar etiquetas a los datos. Esto ayuda a los desarrolladores a encontrar y actualizar las incrustaciones apropiadas más fácilmente.
Use LLM para rastrear el mercado
El mercado cambia mucho y suceden muchas cosas todos los días. Como KOL (Líderes de opinión clave) que publican nuevas ideas y pensamientos, boletines y correos electrónicos de productos que llegan a su bandeja de entrada. LLM puede seleccionar las ideas y noticias más importantes para usted. También resume el contenido para acortar su tiempo de lectura y ayudarlo a mantenerse al día con la dinámica del mercado.
minmax.ai se dedica al campo del periodismo. Proporcionan resúmenes de las últimas noticias sobre un tema en particular y también brindan análisis de opinión sobre ese tema.
Los informes aburridos eliminan el contenido sensacionalista de las noticias y se enfocan en los detalles importantes para ayudar a los lectores a tomar las decisiones correctas.
Robo-advisory es uno de los campos más populares en este momento. LLM puede impulsar el uso de robo-asesoramiento. LLM puede proporcionar recomendaciones comerciales y ayudar a los usuarios a administrar carteras en el contexto de la información bursátil.
Proyectos como Numer.ai usan IA para predecir mercados y administrar fondos. También hay carteras gestionadas por LLM. Los usuarios pueden seguir estas carteras en Robinhood.
Composer trae algoritmos comerciales con IA. La IA crea estrategias comerciales específicas basadas en los conocimientos de los usuarios. La IA luego probará automáticamente estas estrategias comerciales. Si el usuario está satisfecho con las políticas, Composer puede aplicarlas automáticamente para el usuario.
Analizar proyectos usando LLM
Los proyectos analíticos a menudo implican la lectura de grandes volúmenes de material y la redacción de extensos trabajos de investigación. LLM puede leer y escribir párrafos cortos. Si podemos extender sus capacidades a párrafos largos, ¿eso significa que LLM puede generar de alguna manera algún proyecto de investigación? Más probable es que sí. Podemos ingresar informes técnicos, documentos o presentaciones de eventos y dejar que LLM analice proyectos y fundadores. Limitados por el número de tokens, podemos primero escribir el esquema del papel y luego actualizar y optimizar cada parte de acuerdo con la información que obtiene.
Proyectos como BabyAGI ya están avanzando en esta dirección. El siguiente es un resultado de muestra de BlockAGI, una variante de BabyAGI.
LLM también puede analizar la personalidad del fundador en función de Twitter y hablar en público. Por ejemplo, Tweet Analyzer puede tomar tweets recientes y usar LLM para analizar rasgos personales.
en conclusión
Estas son ocho direcciones específicas en las que LLM puede ayudar a la comunidad blockchain en un futuro próximo:
Integre las funciones AI/LLM integradas en la cadena de bloques.
Use LLM para analizar registros de transacciones.
Mejore la seguridad con LLM.
Escribir código usando LLM.
Use el LLM para leer el código.
Aprovechar el LLM para ayudar a la comunidad.
Use LLM para rastrear el mercado.
Aplicar LLM para analizar proyectos.
LLM puede beneficiar a todos los miembros del espacio criptográfico, incluidos los propietarios de proyectos, analistas e ingenieros. Los fundadores pueden usar LLM para automatizar tareas como documentación y preguntas y respuestas. Los ingenieros pueden usar LLM para escribir código de forma más rápida y segura. Los analistas pueden investigar proyectos más fácilmente.
A largo plazo, también vemos una oportunidad potencial para aplicar LLM en el espacio de GameFi. LLM puede generar tareas más interesantes en el juego y desempeñar diferentes roles en el juego. El mundo del juego se sentirá más real e interesante. Los NPC reaccionarán dinámicamente según las acciones del jugador. Las misiones tendrán más finales dependiendo de cómo las resuelva el usuario.
LLM se puede integrar en proyectos existentes, pero también abre oportunidades para nuevos participantes. Por ejemplo, ya existen algunos de los mejores jugadores en el campo del análisis de datos en cadena. Dune puede integrar LLM para mejorar la experiencia del usuario. Sin embargo, LLM también presenta oportunidades para los nuevos participantes. Estos nuevos participantes pueden colocar LLM en el corazón de su diseño de productos. Estos productos creativos dirigidos y centrados en la IA pueden generar una nueva competencia en el campo del análisis de datos en cadena.
Existe una superposición en los usos de LLM en los mundos Web2 y Web3, pero pueden implementar productos de diferentes maneras. Porque los datos que usamos en el mundo Web3 no son los mismos que los datos en el mundo Web2. La base de conocimientos de LLM también puede ser diferente en Web2 y Web3. Los datos de Web3 involucran cadenas de bloques, precios de tokens, tweets, proyectos e investigaciones. Por lo tanto, Web2 y Web3 requieren diferentes LLM para atender a los usuarios finales.
Debido al auge de LLM, estamos viendo la creciente popularidad de AIxBlockchain. Sin embargo, muchos AIxBlockhains no son prácticos por un corto período de tiempo. Las pruebas de Blockchain y de conocimiento cero no pueden proporcionar potencia informática a gran escala para el entrenamiento y el razonamiento de algunos modelos complejos. Los modelos pequeños no pueden resolver tareas complejas. Un enfoque más práctico es aplicar LLM en el dominio de blockchain. LLM ha logrado recientemente un mayor progreso que otros temas de IA. Tiene más sentido combinar LLM y blockchain.
La comunidad LLM está trabajando para mejorar los límites de tokens y aumentar la precisión de las respuestas. Lo que le queda a la comunidad de blockchain son las fuentes de datos y las canalizaciones de datos. Los datos limpios se pueden usar para ajustar el LLM para mejorar la precisión en el entorno de la cadena de bloques. Las canalizaciones de datos pueden integrar más aplicaciones relacionadas con blockchain en LLM y desarrollar más agentes criptográficos específicos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
IOSG Ventures: Discusión en profundidad sobre la nueva posibilidad de LLM para abrir la interacción de blockchain
Autor original: Yiping, IOSG Ventures
Bienvenido al segundo artículo de nuestra serie de investigación sobre el modelo de lenguaje grande (LLM) y la cadena de bloques. En el artículo anterior, discutimos cómo integrar la tecnología LLM y blockchain desde un nivel técnico, y por qué el marco LLM es muy adecuado para el campo blockchain. También describimos caminos potenciales para integrar LLM con blockchain en el futuro.
En esta publicación, adoptaremos un enfoque más práctico y nos sumergiremos en ocho áreas de aplicación específicas que creemos que cambiarán drásticamente la experiencia del usuario de blockchain. Aún más emocionante, predecimos que estas aplicaciones innovadoras se harán realidad durante el próximo año.
Únase a nosotros mientras descubrimos el futuro de la interacción de blockchain. Aquí hay una breve descripción de las ocho aplicaciones que discutiremos:
Integración de capacidades integradas de IA/LLM en la cadena de bloques
Uso de LLM para analizar registros de transacciones
Mejore la seguridad con LLM
Escribir código con LLM
Leer código con LLM
Ayudar a la comunidad con LLM
Implementar LLM para rastrear el mercado
Aplicar LLM para analizar proyectos
Integre las capacidades integradas de AI/LLM en la cadena de bloques
La cadena de bloques tendrá funciones y modelos de inteligencia artificial incorporados. Los desarrolladores pueden acceder a las funciones de IA para realizar tareas de ML de firma, como clasificación, regresión, finalización de texto y AIGC en cadena. Los desarrolladores pueden llamar a estas funciones de inteligencia artificial a través de contratos inteligentes.
Con estas funciones integradas, los desarrolladores pueden dar inteligencia y autonomía a sus contratos inteligentes. La clasificación, la regresión y AIGC son tareas típicas de IA. Veamos la aplicación de estas funciones en el campo de la cadena de bloques y algunos proyectos de ejemplo.
Clasificación
La clasificación se puede utilizar para determinar si una dirección es un bot o una persona real. Esto podría cambiar la situación actual de las ventas de NFT. La clasificación también puede mejorar la seguridad del ecosistema DeFi. Los contratos inteligentes de DeFi pueden filtrar transacciones maliciosas y evitar la pérdida de fondos.
Regresión
El análisis de regresión se puede utilizar para la previsión, aplicado a la gestión de fondos y activos. Numer.ai ya usa inteligencia artificial para ayudarlos a administrar el dinero. Numer proporciona datos del mercado de valores de alta calidad en los que trabajan los científicos de datos y aplican el aprendizaje automático para predecir el mercado de valores.
AIG
Muchos proyectos NFT están tratando de construir un universo IP. Sin embargo, su contenido limitado no puede soportar un universo. Si podemos usar AIGC en la cadena, podemos generar innumerables contenidos con un estilo de marca icónico similar a un costo relativamente bajo. Los modelos pueden generar texto, ilustraciones, música, sonido e incluso video. Esto amplía enormemente el tamaño del universo IP. Los participantes de la comunidad pueden ajustar colectivamente el modelo para satisfacer sus expectativas. El proceso de puesta a punto también hace que la comunidad se sienta involucrada.
Botto utiliza el modelo AIGC para generar contenido artístico. La comunidad vota por sus imágenes favoritas para ajustar colectivamente el modelo AIGC.
Si observamos la cadena de bloques como una base de datos, también encontramos que Databend incorpora capacidades de inteligencia artificial integradas en su base de datos. Proporcionan las siguientes funciones:
Proporcione capacidades de IA para la cadena de bloques
Sabemos que algunos proyectos están incorporando capacidades de IA a la cadena de bloques.
Giza está trabajando en ZKML. Genera pruebas de razonamiento fuera de la cadena y las verifica en la cadena. Ahora admite cadenas de bloques compatibles con Ethereum Virtual Machine y StarkNet. Giza anunció recientemente una asociación con Yearn.finance, mediante la cual Yearn aprovechará las capacidades de inteligencia artificial de Giza para mejorar sus capacidades de evaluación de riesgos.
Modulus Labs también está trabajando en una dirección similar. Trabajan más para mejorar los sistemas de prueba para generar circuitos de alto rendimiento para inteligencia artificial. Lanzaron demostraciones como Chess AI y Ethereum Price Prediction AI. Su nuevo proyecto de demostración, zkMon, es el primer coleccionable NFT de la Red Adversaria Generativa a prueba de conocimiento cero del mundo.
Use LLM para analizar registros de transacciones
El análisis de registros de transacciones generalmente lo realizan aplicaciones específicas como Debank. El análisis manual de registros de transacciones por parte de humanos es difícil. El análisis manual implica la recopilación de datos, la limpieza de datos y el análisis de datos, lo que requiere que los usuarios tengan habilidades de codificación. Debido a la capacidad de LLM para analizar y visualizar datos, ahora tenemos un nuevo enfoque. A través de LLM, podemos analizar datos en cadena de acuerdo con necesidades personalizadas. Podemos analizar la tasa de ganancias, el índice de rendimiento o cualquier información que queramos saber.
RSS3 ha desarrollado un complemento ChatGPT llamado Web3 User Activity para trabajar en esta dirección. Los usuarios pueden ingresar la dirección de la billetera, ENS o Lens para consultar las actividades en la cadena. Este complemento generará información de transacción en una forma legible por humanos. Desafortunadamente, sin embargo, no puede realizar consultas complejas, como cuántos titulares de Azuki hay, qué contratos inteligentes son los más populares, etc. Los usuarios también deben tener en cuenta que las direcciones y las etiquetas proporcionadas por los complementos no son necesariamente precisas.
DeFiLlama también lanzó un complemento ChatGPT. Los usuarios pueden consultar cualquier dato disponible en DeFiLlama en lenguaje natural. También puede realizar operaciones simples de filtrado y clasificación:
Dune también está integrando GPT en su producto para habilitar las siguientes funciones:
Aproveche el LLM para mejorar la seguridad
Debido a sus capacidades de lógica y razonamiento, LLM puede usarse para filtrar algunas transacciones maliciosas y actuar como un cortafuegos para contratos inteligentes. Aquí hay un ejemplo concreto de cómo bloquear la actividad del bot:
Después de ingresar la dirección, LLM puede obtener todos los datos de la transacción a través de un complemento de terceros, luego analizar estos registros de transacciones y elaborar la posibilidad de que la dirección sea un robot. Esta funcionalidad se puede integrar en Dapps donde los bots no son bienvenidos, como las ventas de NFT.
A continuación se muestra un ejemplo simple a través de ChatGPT. ChatGPT recupera los registros de transacciones de la cuenta a través del complemento de actividad del usuario Web3 desarrollado por RSS3, luego analiza estos registros de transacciones y genera la posibilidad de que la cuenta sea un robot.
Si ingresamos más registros de transacciones y ajustamos el LLM en el conjunto de datos relacionado con el bot, podemos lograr resultados más precisos. A continuación se muestra un flujo de trabajo de ejemplo para una aplicación de este tipo. También podemos agregar capas de base de datos y almacenamiento en caché para mejorar la capacidad de respuesta y reducir los costos.
Escribir código usando LLM
LLM se usa ampliamente en el desarrollo para ayudar a los desarrolladores a escribir código mejor y más rápido. Bajo la dirección del desarrollador, LLM puede generar código para ellos. Actualmente, los desarrolladores aún deben proporcionar instrucciones detalladas para LLM. Es difícil para LLM generar código automáticamente para todo el proyecto.
Algunos modelos populares de LLM para código incluyen StarCoder, StarCoder+, Code T 5, LTM, DIDACT, WizardCoder, FalCoder-7 B y MPT 30 B.
Todos estos modelos se pueden usar para escribir contratos inteligentes, pero es posible que no hayan sido entrenados específicamente en datos de contratos inteligentes. Todavía tienen margen de mejora.
Actualmente, solo hay un conjunto de datos relacionado con contratos inteligentes disponible en HuggingFace. Es el conjunto dodger de contratos inteligentes auditados, que contiene 113.000 contratos inteligentes. Se puede utilizar para tareas como clasificación de texto, generación de texto y detección de vulnerabilidades.
La generación automática de código puede ser más prometedora que las herramientas de desarrollo asistido. La generación automática de códigos es adecuada para contratos inteligentes porque los contratos inteligentes son relativamente cortos y relativamente simples. Hay varias formas en que LLM puede ayudar a los desarrolladores a generar código automáticamente en el espacio blockchain.
prueba
Primero, LLM puede generar pruebas para contratos inteligentes bien escritos. Por ejemplo, Codium puede generar automáticamente pruebas para proyectos escritos. Codium actualmente es compatible con JS y TS. Codium comienza por comprender el código base, analizando cada función, cadena de documentación y comentario. Luego, Codium vuelve a escribir el análisis del código en el archivo como comentarios y genera un plan de prueba. Los usuarios pueden seleccionar sus pruebas preferidas y Codium generará el código de prueba seleccionado.
Otras herramientas auxiliares también admiten la generación de pruebas para funciones seleccionadas.
Podemos replicar una funcionalidad similar en GPT-4 siguiendo pasos similares.
Primero solicitamos el análisis del código porque queríamos que el LLM dedicara más tiempo a esta tarea. El LLM no sabe qué tareas son difíciles. Gasta la misma potencia informática en cada marcador. Esto puede conducir a resultados inexactos en tareas complejas. En base a estas características, solicitamos el análisis del código. De esta manera, LLM gastará más tokens/tiempo pensando en estas tareas y generará resultados de mayor calidad. Este método también se conoce como "cadena de pensamiento".
Para que funcione para contratos inteligentes más largos, necesitamos un LLM con un contexto más amplio o algo de ingeniería para preservar la memoria.
Generar scripts de ayuda
En segundo lugar, podemos usar LLM para generar automáticamente algunos scripts auxiliares, como scripts de implementación.
Los scripts de implementación reducen los posibles errores durante las implementaciones manuales. La idea es muy similar a la generación automática de pruebas.
Bifurcación automática
En un mercado alcista, habrá muchos proyectos bifurcados en los que los equipos realicen pequeños cambios en el código de su base de código original. Este sería un gran caso de uso para LLM: LLM puede ayudar a los desarrolladores a modificar automáticamente el código de acuerdo con las necesidades del equipo. Por lo general, solo es necesario cambiar partes específicas del código. Esto es relativamente fácil de lograr para LLM.
Generación automática de código
Si vamos un paso más allá, ¿puede LLM generar automáticamente contratos inteligentes según las necesidades de los desarrolladores? En comparación con otro software complejo escrito en JS, Rust y Python, los contratos inteligentes son relativamente cortos y relativamente simples. No hay muchas bibliotecas externas para contratos inteligentes. Descubrir cómo escribir un contrato inteligente es relativamente fácil para un LLM.
Ya hemos visto algunos avances en la generación automática de código. GPT-ingeniero es uno de los pioneros. Aborda las necesidades del usuario y responde cualquier pregunta que pueda tener el LLM, antes de que comience la codificación. El código también incluye un script que ejecuta todo el proyecto. GPT-ingeniero puede iniciar automáticamente proyectos para desarrolladores.
Después de que el usuario ingresa sus requisitos, el ingeniero de GPT analiza los requisitos y solicita algunas aclaraciones. Después de recopilar toda la información necesaria, el ingeniero de GPT generará primero el diseño del programa, incluidas las clases principales, las funciones y los métodos necesarios para esta tarea. GPT-engineer luego generará código para cada archivo.
Con una pista como esta, podemos generar un contrato inteligente de contador.
Los contratos inteligentes se compilan y funcionan como se esperaba.
Debido a que GPT-engineer se diseñó originalmente para Python, tiene algunos problemas al generar código relacionado con Hardhat. El ingeniero de GPT no conoce la última versión de Hardhat y, a veces, genera scripts de prueba e implementación obsoletos.
Si nuestro código tiene errores, podemos enviar el código base y los registros de errores de la consola a LLM. LLM puede modificar continuamente el código hasta que el código pueda ejecutarse correctamente. Vemos algo como ** [flo] (Dichos proyectos se están desarrollando en esta dirección. Actualmente, flo solo admite JS.
Si queremos aumentar la precisión de la generación de contratos inteligentes, podemos mejorar el ingeniero GPT con algunos consejos nuevos. Podemos adoptar un método de desarrollo basado en pruebas, que requiere LLM para garantizar que el programa pase ciertas pruebas, a fin de restringir mejor el programa generado.
Usar LLM para leer código
Dado que LLM comprende bien el código, podemos usar LLM para escribir documentación para desarrolladores. LLM también puede realizar un seguimiento de los cambios de código para actualizar la documentación. Discutimos este enfoque al final de nuestro informe de investigación anterior, Explorando la experiencia del desarrollador en ZKRU: un análisis en profundidad.
Leer documentación es la forma tradicional, pero comunicarse con código es una forma nueva. Los usuarios pueden hacer cualquier pregunta sobre el código y LLM les responderá. LLM puede explicar el código a los desarrolladores y ayudarlos a comprender rápidamente los contratos inteligentes en la cadena. LLM también puede ayudar a las personas sin experiencia en codificación a comprender los contratos inteligentes.
Ya hemos visto esta tendencia en el mundo Web2. Muchas herramientas de asistencia de código tienen capacidades de interpretación de código.
Etherescan también demostró su nueva funcionalidad, que permite a los usuarios comunicarse con código, aprovechando el poder de LLM.
¿Cómo cambia la auditoría cuando se entiende el código? En los experimentos sobre el papel "¿todavía necesita una auditoría de contrato inteligente manual?" LLM logró una tasa de aciertos del 40 % en la identificación de vulnerabilidades, superando las líneas de base aleatorias. Sin embargo, también tienen una alta tasa de falsos positivos. Las indicaciones adecuadas son clave, señalan los autores.
Además de las sugerencias, las siguientes razones limitan su aplicación:
Estos problemas no son difíciles de resolver. Las grandes firmas de auditoría tienen miles de informes de auditoría que se pueden usar para afinar LLM. Están surgiendo LLM con grandes restricciones de token. Claude tiene un límite de 100.000 fichas. El LTM-1 recién lanzado tiene un impresionante límite de 5 millones de tokens. A través de los esfuerzos para abordar estos dos problemas, es posible que veamos que los LLM mejoran en la identificación de vulnerabilidades. LLM puede ayudar a los auditores y acelerar el proceso de auditoría. Esto puede desarrollarse gradualmente. Aquí hay posibles trayectorias de desarrollo:
Ayudar a los auditores a organizar el lenguaje y el formato de los informes. Esto asegura la consistencia del lenguaje bajo la misma firma de auditoría. A menudo, diferentes grupos pueden tener diferentes vocabularios preferidos.
Ayudar a los auditores a identificar y verificar posibles vulnerabilidades.
Generar automáticamente un borrador de informe de auditoría.
Use LLM para ayudar a la comunidad
La gobernabilidad es una parte crítica de la comunidad. Los miembros de la comunidad tienen derecho a votar por sus propuestas favoritas. Estas propuestas darán forma al futuro del producto.
Para propuestas importantes, habrá mucha información de fondo y discusión comunitaria. Es difícil para los miembros de la comunidad entender completamente este contexto antes de votar. LLM puede ayudar a los miembros de la comunidad a comprender rápidamente el impacto futuro de sus elecciones y ayudarlos a votar.
Los bots de preguntas y respuestas son otra aplicación potencial. Hemos visto bots de preguntas y respuestas basados en la documentación del proyecto. Podemos ir más allá para construir una base de datos de conocimiento más grande. Podemos conectar diferentes medios y fuentes como presentaciones, podcasts, GitHub, chats de Discord y Twitter Spaces. Los bots de preguntas y respuestas no solo existen en la barra de búsqueda de documentación, sino que también pueden brindar asistencia instantánea a los miembros de la comunidad en Discord, o difundir la visión del proyecto en Twitter y responder cualquier pregunta.
AwesomeQA se está desarrollando actualmente en esta dirección. Implementa tres funciones:
Una de las dificultades que enfrentan actualmente los robots de respuesta a preguntas es cómo obtener con precisión el contexto relevante de la base de datos de vectores y proporcionar el contexto a LLM. Por ejemplo, si un usuario solicita una consulta con filtros sobre múltiples funciones para múltiples elementos, es posible que el robot no pueda recuperar el contexto relevante de la base de datos vectorial.
La actualización de la base de datos de vectores es otro problema. La solución actual es reconstruir la base de datos de vectores o actualizar la base de datos de vectores a través del espacio de nombres. Agregar espacios de nombres a incrustaciones es similar a adjuntar etiquetas a los datos. Esto ayuda a los desarrolladores a encontrar y actualizar las incrustaciones apropiadas más fácilmente.
Use LLM para rastrear el mercado
El mercado cambia mucho y suceden muchas cosas todos los días. Como KOL (Líderes de opinión clave) que publican nuevas ideas y pensamientos, boletines y correos electrónicos de productos que llegan a su bandeja de entrada. LLM puede seleccionar las ideas y noticias más importantes para usted. También resume el contenido para acortar su tiempo de lectura y ayudarlo a mantenerse al día con la dinámica del mercado.
minmax.ai se dedica al campo del periodismo. Proporcionan resúmenes de las últimas noticias sobre un tema en particular y también brindan análisis de opinión sobre ese tema.
Los informes aburridos eliminan el contenido sensacionalista de las noticias y se enfocan en los detalles importantes para ayudar a los lectores a tomar las decisiones correctas.
Robo-advisory es uno de los campos más populares en este momento. LLM puede impulsar el uso de robo-asesoramiento. LLM puede proporcionar recomendaciones comerciales y ayudar a los usuarios a administrar carteras en el contexto de la información bursátil.
Proyectos como Numer.ai usan IA para predecir mercados y administrar fondos. También hay carteras gestionadas por LLM. Los usuarios pueden seguir estas carteras en Robinhood.
Composer trae algoritmos comerciales con IA. La IA crea estrategias comerciales específicas basadas en los conocimientos de los usuarios. La IA luego probará automáticamente estas estrategias comerciales. Si el usuario está satisfecho con las políticas, Composer puede aplicarlas automáticamente para el usuario.
Analizar proyectos usando LLM
Los proyectos analíticos a menudo implican la lectura de grandes volúmenes de material y la redacción de extensos trabajos de investigación. LLM puede leer y escribir párrafos cortos. Si podemos extender sus capacidades a párrafos largos, ¿eso significa que LLM puede generar de alguna manera algún proyecto de investigación? Más probable es que sí. Podemos ingresar informes técnicos, documentos o presentaciones de eventos y dejar que LLM analice proyectos y fundadores. Limitados por el número de tokens, podemos primero escribir el esquema del papel y luego actualizar y optimizar cada parte de acuerdo con la información que obtiene.
Proyectos como BabyAGI ya están avanzando en esta dirección. El siguiente es un resultado de muestra de BlockAGI, una variante de BabyAGI.
LLM también puede analizar la personalidad del fundador en función de Twitter y hablar en público. Por ejemplo, Tweet Analyzer puede tomar tweets recientes y usar LLM para analizar rasgos personales.
en conclusión
Estas son ocho direcciones específicas en las que LLM puede ayudar a la comunidad blockchain en un futuro próximo:
Integre las funciones AI/LLM integradas en la cadena de bloques.
Use LLM para analizar registros de transacciones.
Mejore la seguridad con LLM.
Escribir código usando LLM.
Use el LLM para leer el código.
Aprovechar el LLM para ayudar a la comunidad.
Use LLM para rastrear el mercado.
Aplicar LLM para analizar proyectos.
LLM puede beneficiar a todos los miembros del espacio criptográfico, incluidos los propietarios de proyectos, analistas e ingenieros. Los fundadores pueden usar LLM para automatizar tareas como documentación y preguntas y respuestas. Los ingenieros pueden usar LLM para escribir código de forma más rápida y segura. Los analistas pueden investigar proyectos más fácilmente.
A largo plazo, también vemos una oportunidad potencial para aplicar LLM en el espacio de GameFi. LLM puede generar tareas más interesantes en el juego y desempeñar diferentes roles en el juego. El mundo del juego se sentirá más real e interesante. Los NPC reaccionarán dinámicamente según las acciones del jugador. Las misiones tendrán más finales dependiendo de cómo las resuelva el usuario.
LLM se puede integrar en proyectos existentes, pero también abre oportunidades para nuevos participantes. Por ejemplo, ya existen algunos de los mejores jugadores en el campo del análisis de datos en cadena. Dune puede integrar LLM para mejorar la experiencia del usuario. Sin embargo, LLM también presenta oportunidades para los nuevos participantes. Estos nuevos participantes pueden colocar LLM en el corazón de su diseño de productos. Estos productos creativos dirigidos y centrados en la IA pueden generar una nueva competencia en el campo del análisis de datos en cadena.
Existe una superposición en los usos de LLM en los mundos Web2 y Web3, pero pueden implementar productos de diferentes maneras. Porque los datos que usamos en el mundo Web3 no son los mismos que los datos en el mundo Web2. La base de conocimientos de LLM también puede ser diferente en Web2 y Web3. Los datos de Web3 involucran cadenas de bloques, precios de tokens, tweets, proyectos e investigaciones. Por lo tanto, Web2 y Web3 requieren diferentes LLM para atender a los usuarios finales.
Debido al auge de LLM, estamos viendo la creciente popularidad de AIxBlockchain. Sin embargo, muchos AIxBlockhains no son prácticos por un corto período de tiempo. Las pruebas de Blockchain y de conocimiento cero no pueden proporcionar potencia informática a gran escala para el entrenamiento y el razonamiento de algunos modelos complejos. Los modelos pequeños no pueden resolver tareas complejas. Un enfoque más práctico es aplicar LLM en el dominio de blockchain. LLM ha logrado recientemente un mayor progreso que otros temas de IA. Tiene más sentido combinar LLM y blockchain.
La comunidad LLM está trabajando para mejorar los límites de tokens y aumentar la precisión de las respuestas. Lo que le queda a la comunidad de blockchain son las fuentes de datos y las canalizaciones de datos. Los datos limpios se pueden usar para ajustar el LLM para mejorar la precisión en el entorno de la cadena de bloques. Las canalizaciones de datos pueden integrar más aplicaciones relacionadas con blockchain en LLM y desarrollar más agentes criptográficos específicos.