Добро пожаловать во вторую статью из нашей серии исследований большой языковой модели (LLM) и блокчейна. В предыдущей статье мы обсудили, как интегрировать LLM и технологию блокчейна на техническом уровне, и почему структура LLM очень подходит для области блокчейна. Мы также намечаем возможные пути интеграции LLM с блокчейном в будущем.
В этом посте мы рассмотрим более практичный подход и погрузимся в восемь конкретных областей применения, которые, по нашему мнению, кардинально изменят пользовательский опыт блокчейна. Что еще более интересно, мы прогнозируем, что эти прорывные приложения станут реальностью в течение следующего года.
Присоединяйтесь к нам, поскольку мы раскрываем будущее взаимодействия блокчейна. Вот краткий обзор восьми приложений, которые мы будем обсуждать:
Интеграция встроенных возможностей AI/LLM в блокчейн
Использование LLM для анализа записей транзакций
Повысьте безопасность с помощью LLM
Пишите код с помощью LLM
Чтение кода с помощью LLM
Помощь сообществу с LLM
Внедрите LLM для отслеживания рынка
Применяйте LLM для анализа проектов
Интеграция встроенных возможностей AI/LLM в блокчейн
Блокчейн будет иметь встроенные функции и модели искусственного интеллекта. Разработчики могут получить доступ к функциям ИИ для выполнения характерных задач машинного обучения, таких как классификация, регрессия, завершение текста и AIGC в сети. Разработчики могут вызывать эти функции искусственного интеллекта через смарт-контракты.
С помощью этих встроенных функций разработчики могут наделить свои смарт-контракты интеллектом и автономией. Классификация, регрессия и AIGC — типичные задачи ИИ. Давайте посмотрим на применение этих функций в области блокчейна и на нескольких примерах проектов.
Классификация
Классификацию можно использовать, чтобы определить, является ли адрес ботом или реальным человеком. Это может изменить текущую ситуацию с продажами NFT. Классификация также может повысить безопасность экосистемы DeFi. Смарт-контракты DeFi могут фильтровать вредоносные транзакции и предотвращать потерю средств.
Регрессия
Регрессионный анализ можно использовать для прогнозирования, применительно к управлению фондами и активами. Numer.ai уже использует искусственный интеллект, чтобы управлять деньгами. Numer предоставляет высококачественные данные фондового рынка, над которыми работают специалисты по данным и применяют машинное обучение для прогнозирования фондового рынка.
АИГК
Многие проекты NFT пытаются создать вселенную IP. Однако их ограниченный контент не может поддерживать вселенную. Если мы сможем использовать AIGC в сети, мы сможем выпускать бесчисленное количество контента с похожим культовым стилем бренда по относительно низкой цене. Модели могут выводить текст, иллюстрации, музыку, звук и даже видео. Это значительно расширяет размер вселенной IP. Участники сообщества могут коллективно настроить модель так, чтобы она соответствовала их ожиданиям. Процесс тонкой настройки также заставляет сообщество чувствовать себя вовлеченным.
Botto использует модель AIGC для создания художественного контента. Сообщество голосует за свои любимые изображения, чтобы коллективно настроить модель AIGC.
Если мы посмотрим на блокчейн как на базу данных, мы также обнаружим, что Databend включает в свою базу данных встроенные возможности искусственного интеллекта. Они обеспечивают следующие функции:
ai_embedding_vector: Создание векторов встраивания для текстовых документов.
ai_text_completion: генерировать завершение текста на основе данной подсказки.
cosine_distance: вычисляет косинусное расстояние между двумя векторами вложения.
ai_to_sql: преобразование инструкций на естественном языке в SQL-запросы.
Обеспечьте возможности ИИ для блокчейна
Мы знаем, что некоторые проекты привносят возможности ИИ в блокчейн.
Giza работает над ZKML. Он генерирует доказательства рассуждений вне цепочки и проверяет их в цепочке. Теперь он поддерживает блокчейны, совместимые с виртуальной машиной Ethereum, а также со StarkNet. Giza недавно объявила о партнерстве с Yearn.finance, в рамках которого Yearn будет использовать возможности искусственного интеллекта Giza для расширения своих возможностей оценки рисков.
Modulus Labs также работает в том же направлении. Они усердно работают над улучшением систем проверки для создания высокопроизводительных схем для искусственного интеллекта. Они выпустили демоверсии, такие как Chess AI и Ethereum Price Prediction AI. Их новый демонстрационный проект, zkMon, является первым в мире предметом коллекционирования Generative Adversarial Network NFT с нулевым разглашением.
Используйте LLM для анализа записей транзакций
Анализ записей транзакций обычно выполняется специальными приложениями, такими как Debank. Анализировать вручную записи транзакций людьми сложно. Ручной анализ включает в себя сбор данных, очистку данных и анализ данных, что требует от пользователей навыков кодирования. Благодаря способности LLM анализировать и визуализировать данные, у нас появился новый подход. С помощью LLM мы можем анализировать данные в сети в соответствии с индивидуальными потребностями. Мы можем анализировать процент побед, коэффициент производительности или любую другую информацию, которую мы хотим знать.
RSS3 разработал плагин ChatGPT под названием Web3 User Activity для работы в этом направлении. Пользователи могут ввести адрес кошелька, ENS или Lens, чтобы запросить действия в сети. Этот плагин будет выводить информацию о транзакциях в удобочитаемой форме. Однако, к сожалению, он не может выполнять сложные запросы, такие как количество держателей Azuki, какие смарт-контракты наиболее популярны и т. д. Пользователи также должны знать, что адреса и теги, предоставляемые плагинами, не обязательно точны.
DeFiLlama также выпустила плагин ChatGPT. Пользователи могут запрашивать любые данные, доступные на DeFiLlama, на естественном языке. Он также может выполнять простые операции фильтрации и сортировки:
Dune также интегрирует GPT в свой продукт, чтобы обеспечить следующие функции:
Интерпретация запросов: используйте LLM для объяснения запросов.
Перевод запросов: используйте LLM для перевода других языков SQL в DuneSQL.
Запрос на естественном языке: позволяет пользователям писать запросы на естественном языке.
Поиск: улучшите результаты поиска с помощью LLM
База знаний Wizard: чат-бот, который позволяет пользователям общаться с документами.
Использование LLM для повышения безопасности
Благодаря своим логическим и логическим возможностям LLM можно использовать для фильтрации некоторых вредоносных транзакций и действовать как брандмауэр для смарт-контрактов. Вот конкретный пример того, как заблокировать активность бота:
После ввода адреса LLM может получить все данные о транзакциях через сторонний плагин, затем проанализировать эти записи транзакций и составить вероятность того, что адрес является роботом. Эта функция может быть встроена в Dapps, где боты не приветствуются, например, в продажах NFT.
Ниже приведен простой пример через ChatGPT. ChatGPT извлекает записи транзакций учетной записи с помощью подключаемого модуля активности пользователя Web3, разработанного RSS3, затем анализирует эти записи транзакций и выводит вероятность того, что учетная запись является роботом.
Если мы добавим больше записей о транзакциях и точно настроим LLM на наборе данных, связанном с ботом, мы сможем получить более точные результаты. Ниже приведен пример рабочего процесса для такого приложения. Мы также можем добавить уровни кэширования и базы данных, чтобы повысить скорость отклика и снизить затраты.
Пишите код с помощью LLM
LLM широко используется в разработке, чтобы помочь разработчикам писать код быстрее и лучше. По указанию разработчика LLM может генерировать для них код. В настоящее время разработчикам все еще необходимо предоставить подробные инструкции для LLM. LLM сложно автоматически генерировать код для всего проекта.
Некоторые популярные модели LLM для кода включают StarCoder, StarCoder+, Code T 5, LTM, DIDACT, WizardCoder, FalCoder-7 B и MPT 30 B.
Все эти модели можно использовать для написания смарт-контрактов, но они, возможно, не были специально обучены на данных смарт-контрактов. Им еще есть куда расти.
В настоящее время на HuggingFace доступен только один набор данных, связанный со смарт-контрактами. Это набор проверенных смарт-контрактов, содержащий 113 000 смарт-контрактов. Его можно использовать для таких задач, как классификация текста, генерация текста и обнаружение уязвимостей.
Автоматическая генерация кода может быть более перспективной, чем вспомогательные средства разработки. Автоматическая генерация кода подходит для смарт-контрактов, потому что смарт-контракты относительно короткие и относительно простые. Есть несколько способов, которыми LLM может помочь разработчикам автоматически генерировать код в пространстве блокчейна.
тест
Во-первых, LLM может генерировать тесты для хорошо написанных смарт-контрактов. Например, Codium может автоматически генерировать тесты для письменных проектов. В настоящее время Codium поддерживает JS и TS. Codium начинается с понимания кодовой базы, анализа каждой функции, строки документации и комментариев. Затем Codium записывает анализ кода обратно в файл в виде комментариев и выводит план тестирования. Пользователи могут выбрать предпочтительные тесты, и Codium сгенерирует выбранный тестовый код.
Другие вспомогательные инструменты также поддерживают создание тестов для выбранных функций.
Мы можем воспроизвести аналогичную функциональность на GPT-4, выполнив аналогичные шаги.
Сначала мы попросили провести анализ кода, потому что хотели, чтобы LLM уделял этой задаче больше времени. LLM не знает, какие задачи сложны. На каждый маркер тратится одинаковая вычислительная мощность. Это может привести к неточным результатам в сложных задачах. На основании этих характеристик мы запрашиваем анализ кода. Таким образом, LLM потратит больше токенов/времени на обдумывание этих задач и выдаст более качественные результаты. Этот метод также известен как «цепочка мышления».
Чтобы заставить его работать для более длинных смарт-контрактов, нам нужен LLM с более широким контекстом или какие-то инженерные решения для сохранения памяти.
Создание вспомогательных скриптов
Во-вторых, мы можем использовать LLM для автоматического создания некоторых вспомогательных сценариев, таких как сценарии развертывания.
Сценарии развертывания уменьшают количество потенциальных ошибок при развертывании вручную. Идея очень похожа на автоматическое создание тестов.
Автоматическое разветвление
На бычьем рынке будет много разветвленных проектов, в которых команды вносят небольшие изменения в исходный код. Это было бы отличным вариантом использования LLM: LLM может помочь разработчикам автоматически модифицировать код в соответствии с потребностями команды. Обычно требуется изменить только определенные части кода. Этого относительно легко достичь для LLM.
Автоматическая генерация кода
Если мы сделаем еще один шаг вперед, сможет ли LLM автоматически генерировать смарт-контракты в соответствии с потребностями разработчиков? По сравнению с другим сложным программным обеспечением, написанным на JS, Rust и Python, смарт-контракты относительно короткие и относительно простые. Внешних библиотек для смарт-контрактов не так много. Выяснить, как написать смарт-контракт, для LLM относительно легко.
Мы уже видели некоторый прогресс в автоматической генерации кода. GPT-инженер — один из пионеров. Он отвечает потребностям пользователя и отвечает на любые вопросы, которые могут возникнуть у LLM до начала кодирования. Код также включает скрипт, который запускает весь проект. GPT-engineer может автоматически запускать проекты для разработчиков.
После того, как пользователь вводит свои требования, GPT-инженер анализирует требования и запрашивает некоторые пояснения. Собрав всю необходимую информацию, GPT-инженер сначала выводит дизайн программы, включая основные классы, функции и методы, необходимые для этой задачи. Затем GPT-engineer сгенерирует код для каждого файла.
С такой подсказкой мы можем сгенерировать встречный смарт-контракт.
Смарт-контракты компилируются и работают должным образом.
Поскольку GPT-engineer изначально был разработан для Python, у него есть некоторые проблемы с созданием кода, связанного с Hardhat. GPT-инженер не знает о последней версии Hardhat и иногда генерирует устаревшие сценарии тестирования и развертывания.
Если в нашем коде есть ошибки, мы можем передать кодовую базу и журналы ошибок консоли в LLM. LLM может постоянно изменять код до тех пор, пока код не сможет успешно работать. Мы видим что-то вроде ** [flo] (Такие проекты развиваются в этом направлении. На данный момент flo поддерживает только JS.
Если мы хотим повысить точность генерации смарт-контрактов, мы можем улучшить GPT-инженер с некоторыми новыми подсказками. Мы можем принять метод разработки через тестирование, требующий от LLM проверки того, что программа проходит определенные тесты, чтобы лучше ограничить сгенерированную программу.
Используйте LLM для чтения кода
Поскольку LLM хорошо понимает код, мы можем использовать LLM для написания документации для разработчиков. LLM также может отслеживать изменения кода для обновления документации. Мы обсуждали этот подход в конце нашего предыдущего исследовательского отчета «Изучение опыта разработчиков в отношении ZKRU: подробный анализ».
Чтение документации — это традиционный способ, но общение с кодом — это новый способ. Пользователи могут задавать любые вопросы о коде, и LLM ответит на них. LLM может объяснить код для разработчиков и помочь им быстро понять смарт-контракты в цепочке. LLM также может помочь людям, не имеющим опыта программирования, разобраться в смарт-контрактах.
Мы уже видели эту тенденцию в мире Web2. Многие вспомогательные инструменты кода имеют возможности интерпретации кода.
Etherescan также продемонстрировал свою новую функциональность, позволяющую пользователям взаимодействовать с кодом, используя возможности LLM.
Как меняется аудит, когда код понятен? В экспериментах на тему «нужна ли вам проверка смарт-контрактов вручную» LLM достигла 40%-го процента попаданий при выявлении уязвимостей, превзойдя случайные базовые показатели. Однако они также имеют высокий уровень ложных срабатываний. Соответствующие подсказки являются ключевыми, отмечают авторы.
Помимо подсказок, его применение ограничивают следующие причины:
Нынешние LLM специально не обучаются для этой цели. Обучающие данные могут не включать кодовую базу смарт-контрактов и соответствующие аудиторские отчеты.
Обычно наиболее серьезными ошибками являются логические проблемы, состоящие из разных функций. LLM в настоящее время ограничен количеством токенов. LLM не может решать проблемы, которые имеют очень длинный контекст и требуют логических способностей.
Эти проблемы решить не сложно. У крупных аудиторских фирм есть тысячи аудиторских отчетов, которые можно использовать для тонкой настройки LLM. Появляются LLM с большими ограничениями по токенам. У Клода есть лимит в 100 000 токенов. Недавно выпущенный LTM-1 имеет впечатляющий лимит в 5 миллионов токенов. Усилия по решению этих двух проблем могут привести к тому, что LLM станут лучше выявлять уязвимости. LLM может помочь аудиторам и ускорить процесс аудита. Это может развиваться постепенно. Вот возможные пути развития:
Помогите аудиторам организовать язык и формат отчетов. Это обеспечивает языковую согласованность в рамках одной и той же аудиторской фирмы. Часто разные группы могут иметь разный предпочтительный словарный запас.
Помогите аудиторам выявить и проверить потенциальные уязвимости.
Автоматически генерировать черновик аудиторского отчета.
Используйте LLM, чтобы помочь сообществу
Управление является важной частью общества. Члены сообщества имеют право голосовать за понравившиеся предложения. Эти предложения определят будущее продукта.
Для важных предложений будет много справочной информации и обсуждения в сообществе. Членам сообщества трудно полностью понять этот контекст до голосования. LLM может помочь членам сообщества быстро понять последствия их выбора в будущем и помочь им проголосовать.
Боты, отвечающие на вопросы, — еще одно потенциальное приложение. Мы видели ботов для вопросов и ответов, основанных на проектной документации. Мы можем пойти дальше, чтобы создать большую базу данных знаний. Мы можем подключать различные медиа и источники, такие как презентации, подкасты, GitHub, чаты Discord и Twitter Spaces. Боты для вопросов и ответов существуют не только в строке поиска документации, но также могут оказывать мгновенную поддержку членам сообщества в Discord или распространять видение проекта в Twitter и отвечать на любые вопросы.
AwesomeQA в настоящее время развивается в этом направлении. Он реализует три функции:
Используйте интеграцию ChatGPT, чтобы отвечать на вопросы участников сообщества.
Получайте информацию, основанную на данных, на основе сообщений от участников сообщества, таких как анализ часто задаваемых вопросов.
Узнайте, какие сообщения важны, например, нерешенные проблемы
Одна из трудностей, с которыми в настоящее время сталкиваются роботы, отвечающие на вопросы, заключается в том, как точно получить соответствующий контекст из базы данных векторов и предоставить контекст LLM. Например, если пользователь запрашивает запрос с фильтрами по нескольким функциям для нескольких элементов, робот может не получить соответствующий контекст из векторной базы данных.
Обновление базы данных векторов — еще одна проблема. Текущее решение состоит в том, чтобы перестроить базу данных векторов или обновить базу данных векторов через пространство имен. Добавление пространств имен к встраиваниям похоже на добавление меток к данным. Это помогает разработчикам легче находить и обновлять подходящие встраивания.
Используйте LLM для отслеживания рынка
Рынок сильно меняется, и многие вещи происходят каждый день. Например, KOL (Key Opinion Leaders), которые публикуют новые идеи и размышления, информационные бюллетени и электронные письма о продуктах, поступающие в ваш почтовый ящик. LLM может выбрать для вас самые важные идеи и новости. Он также обобщает содержание, чтобы сократить время чтения и помочь вам не отставать от динамики рынка.
minmax.ai посвящен журналистике. Они предоставляют сводки последних новостей по определенной теме, а также предоставляют анализ настроений по этой теме.
Скучные репортажи лишают новости сенсационного содержания и сосредотачиваются на важных деталях, чтобы помочь читателям принять правильное решение.
Робо-консультации сейчас — одна из самых популярных сфер. LLM может стимулировать использование роботов-консультантов. LLM может предоставлять торговые рекомендации и помогать пользователям управлять портфелями на основе информации об акциях.
Такие проекты, как Numer.ai, используют ИИ для прогнозирования рынков и управления фондами. Есть также портфели, которыми управляет LLM. Пользователи могут следить за этими портфолио на Robinhood.
Composer предлагает торговые алгоритмы с искусственным интеллектом. ИИ строит конкретные торговые стратегии на основе мнений пользователей. Затем ИИ автоматически проверит эти торговые стратегии на истории. Если пользователя устраивают политики, Composer может автоматически применять эти политики для пользователя.
Анализ проектов с использованием LLM
Аналитические проекты часто включают в себя чтение больших объемов материала и написание длинных исследовательских работ. LLM может читать и писать короткие абзацы. Если мы можем расширить его возможности до длинных абзацев, означает ли это, что LLM может каким-то образом вывести некоторые исследования проекта? Скорее всего да. Мы можем вводить официальные документы, документы или презентации событий и позволять LLM анализировать проекты и учредителей. Ограниченное количеством токенов, мы можем сначала написать план статьи, а затем обновить и оптимизировать каждую часть в соответствии с полученной информацией.
Такие проекты, как BabyAGI, уже продвигаются в этом направлении. Ниже приведен пример вывода BlockAGI, варианта BabyAGI.
LLM также может анализировать личность основателя на основе Twitter и публичных выступлений. Например, Tweet Analyzer может брать последние твиты и использовать LLM для анализа личных качеств.
в заключение
Вот восемь конкретных направлений, в которых LLM может помочь блокчейн-сообществу в ближайшем будущем:
Интегрируйте встроенные функции AI/LLM в блокчейн.
Используйте LLM для анализа записей транзакций.
Повысьте безопасность с помощью LLM.
Напишите код, используя LLM.
Используйте LLM, чтобы прочитать код.
Используйте LLM для помощи сообществу.
Используйте LLM для отслеживания рынка.
Применить LLM для анализа проектов.
LLM может принести пользу всем участникам криптопространства, включая владельцев проектов, аналитиков и инженеров. Основатели могут использовать LLM для автоматизации таких задач, как документация и вопросы и ответы. Инженеры могут использовать LLM для более быстрого и безопасного написания кода. Аналитикам легче исследовать проекты.
В долгосрочной перспективе мы также видим потенциальную возможность применения LLM в пространстве GameFi. LLM может генерировать более интересные задания в игре и играть разные роли в игре. Мир в игре станет более реальным и интересным. NPC будут реагировать динамически в зависимости от действий игрока. Квесты будут иметь больше концовок в зависимости от того, как пользователь их решает.
LLM может быть интегрирован в существующие проекты, но также открывает возможности для новых участников. Например, уже есть несколько ведущих игроков в области анализа данных в сети. Dune может интегрировать LLM для улучшения взаимодействия с пользователем. Однако LLM также предоставляет возможности для новых участников. Эти новые участники могут поставить LLM в основу дизайна своего продукта. Эти творческие продукты, основанные на ИИ и ориентированные на ИИ, могут создать новую конкуренцию в области анализа данных в сети.
Существует перекрытие в использовании LLM в мирах Web2 и Web3, но они могут реализовывать продукты по-разному. Потому что данные, которые мы используем в мире Web3, отличаются от данных в мире Web2. База знаний LLM также может различаться в Web2 и Web3. Данные Web3 включают в себя блокчейны, цены на токены, твиты, проекты и исследования. Следовательно, Web2 и Web3 требуют разных LLM для обслуживания конечных пользователей.
Из-за бума LLM мы наблюдаем растущую популярность AIxBlockchain. Однако многие AIxBlockchains непрактичны в течение короткого периода времени. Блокчейн и доказательства с нулевым разглашением не могут обеспечить крупномасштабную вычислительную мощность для обучения и рассуждений для некоторых сложных моделей. Маленькие модели не могут решать сложные задачи. Более практичным подходом является применение LLM в домене блокчейна. В последнее время LLM добилась большего прогресса, чем другие темы ИИ. Логичнее совмещать LLM и блокчейн.
Сообщество LLM работает над улучшением лимитов токенов и повышением точности ответов. Что осталось сообществу блокчейнов, так это источники данных и конвейеры данных. Очищенные данные можно использовать для тонкой настройки LLM для повышения точности в среде блокчейна. Конвейеры данных могут интегрировать больше приложений, связанных с блокчейном, в LLM и разрабатывать больше криптоспецифических агентов.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
IOSG Ventures: подробное обсуждение новой возможности LLM для открытого взаимодействия с блокчейном
Оригинальный автор: Yiping, IOSG Ventures
Добро пожаловать во вторую статью из нашей серии исследований большой языковой модели (LLM) и блокчейна. В предыдущей статье мы обсудили, как интегрировать LLM и технологию блокчейна на техническом уровне, и почему структура LLM очень подходит для области блокчейна. Мы также намечаем возможные пути интеграции LLM с блокчейном в будущем.
В этом посте мы рассмотрим более практичный подход и погрузимся в восемь конкретных областей применения, которые, по нашему мнению, кардинально изменят пользовательский опыт блокчейна. Что еще более интересно, мы прогнозируем, что эти прорывные приложения станут реальностью в течение следующего года.
Присоединяйтесь к нам, поскольку мы раскрываем будущее взаимодействия блокчейна. Вот краткий обзор восьми приложений, которые мы будем обсуждать:
Интеграция встроенных возможностей AI/LLM в блокчейн
Использование LLM для анализа записей транзакций
Повысьте безопасность с помощью LLM
Пишите код с помощью LLM
Чтение кода с помощью LLM
Помощь сообществу с LLM
Внедрите LLM для отслеживания рынка
Применяйте LLM для анализа проектов
Интеграция встроенных возможностей AI/LLM в блокчейн
Блокчейн будет иметь встроенные функции и модели искусственного интеллекта. Разработчики могут получить доступ к функциям ИИ для выполнения характерных задач машинного обучения, таких как классификация, регрессия, завершение текста и AIGC в сети. Разработчики могут вызывать эти функции искусственного интеллекта через смарт-контракты.
С помощью этих встроенных функций разработчики могут наделить свои смарт-контракты интеллектом и автономией. Классификация, регрессия и AIGC — типичные задачи ИИ. Давайте посмотрим на применение этих функций в области блокчейна и на нескольких примерах проектов.
Классификация
Классификацию можно использовать, чтобы определить, является ли адрес ботом или реальным человеком. Это может изменить текущую ситуацию с продажами NFT. Классификация также может повысить безопасность экосистемы DeFi. Смарт-контракты DeFi могут фильтровать вредоносные транзакции и предотвращать потерю средств.
Регрессия
Регрессионный анализ можно использовать для прогнозирования, применительно к управлению фондами и активами. Numer.ai уже использует искусственный интеллект, чтобы управлять деньгами. Numer предоставляет высококачественные данные фондового рынка, над которыми работают специалисты по данным и применяют машинное обучение для прогнозирования фондового рынка.
АИГК
Многие проекты NFT пытаются создать вселенную IP. Однако их ограниченный контент не может поддерживать вселенную. Если мы сможем использовать AIGC в сети, мы сможем выпускать бесчисленное количество контента с похожим культовым стилем бренда по относительно низкой цене. Модели могут выводить текст, иллюстрации, музыку, звук и даже видео. Это значительно расширяет размер вселенной IP. Участники сообщества могут коллективно настроить модель так, чтобы она соответствовала их ожиданиям. Процесс тонкой настройки также заставляет сообщество чувствовать себя вовлеченным.
Botto использует модель AIGC для создания художественного контента. Сообщество голосует за свои любимые изображения, чтобы коллективно настроить модель AIGC.
Если мы посмотрим на блокчейн как на базу данных, мы также обнаружим, что Databend включает в свою базу данных встроенные возможности искусственного интеллекта. Они обеспечивают следующие функции:
Обеспечьте возможности ИИ для блокчейна
Мы знаем, что некоторые проекты привносят возможности ИИ в блокчейн.
Giza работает над ZKML. Он генерирует доказательства рассуждений вне цепочки и проверяет их в цепочке. Теперь он поддерживает блокчейны, совместимые с виртуальной машиной Ethereum, а также со StarkNet. Giza недавно объявила о партнерстве с Yearn.finance, в рамках которого Yearn будет использовать возможности искусственного интеллекта Giza для расширения своих возможностей оценки рисков.
Modulus Labs также работает в том же направлении. Они усердно работают над улучшением систем проверки для создания высокопроизводительных схем для искусственного интеллекта. Они выпустили демоверсии, такие как Chess AI и Ethereum Price Prediction AI. Их новый демонстрационный проект, zkMon, является первым в мире предметом коллекционирования Generative Adversarial Network NFT с нулевым разглашением.
Используйте LLM для анализа записей транзакций
Анализ записей транзакций обычно выполняется специальными приложениями, такими как Debank. Анализировать вручную записи транзакций людьми сложно. Ручной анализ включает в себя сбор данных, очистку данных и анализ данных, что требует от пользователей навыков кодирования. Благодаря способности LLM анализировать и визуализировать данные, у нас появился новый подход. С помощью LLM мы можем анализировать данные в сети в соответствии с индивидуальными потребностями. Мы можем анализировать процент побед, коэффициент производительности или любую другую информацию, которую мы хотим знать.
RSS3 разработал плагин ChatGPT под названием Web3 User Activity для работы в этом направлении. Пользователи могут ввести адрес кошелька, ENS или Lens, чтобы запросить действия в сети. Этот плагин будет выводить информацию о транзакциях в удобочитаемой форме. Однако, к сожалению, он не может выполнять сложные запросы, такие как количество держателей Azuki, какие смарт-контракты наиболее популярны и т. д. Пользователи также должны знать, что адреса и теги, предоставляемые плагинами, не обязательно точны.
DeFiLlama также выпустила плагин ChatGPT. Пользователи могут запрашивать любые данные, доступные на DeFiLlama, на естественном языке. Он также может выполнять простые операции фильтрации и сортировки:
Dune также интегрирует GPT в свой продукт, чтобы обеспечить следующие функции:
Использование LLM для повышения безопасности
Благодаря своим логическим и логическим возможностям LLM можно использовать для фильтрации некоторых вредоносных транзакций и действовать как брандмауэр для смарт-контрактов. Вот конкретный пример того, как заблокировать активность бота:
После ввода адреса LLM может получить все данные о транзакциях через сторонний плагин, затем проанализировать эти записи транзакций и составить вероятность того, что адрес является роботом. Эта функция может быть встроена в Dapps, где боты не приветствуются, например, в продажах NFT.
Ниже приведен простой пример через ChatGPT. ChatGPT извлекает записи транзакций учетной записи с помощью подключаемого модуля активности пользователя Web3, разработанного RSS3, затем анализирует эти записи транзакций и выводит вероятность того, что учетная запись является роботом.
Если мы добавим больше записей о транзакциях и точно настроим LLM на наборе данных, связанном с ботом, мы сможем получить более точные результаты. Ниже приведен пример рабочего процесса для такого приложения. Мы также можем добавить уровни кэширования и базы данных, чтобы повысить скорость отклика и снизить затраты.
Пишите код с помощью LLM
LLM широко используется в разработке, чтобы помочь разработчикам писать код быстрее и лучше. По указанию разработчика LLM может генерировать для них код. В настоящее время разработчикам все еще необходимо предоставить подробные инструкции для LLM. LLM сложно автоматически генерировать код для всего проекта.
Некоторые популярные модели LLM для кода включают StarCoder, StarCoder+, Code T 5, LTM, DIDACT, WizardCoder, FalCoder-7 B и MPT 30 B.
Все эти модели можно использовать для написания смарт-контрактов, но они, возможно, не были специально обучены на данных смарт-контрактов. Им еще есть куда расти.
В настоящее время на HuggingFace доступен только один набор данных, связанный со смарт-контрактами. Это набор проверенных смарт-контрактов, содержащий 113 000 смарт-контрактов. Его можно использовать для таких задач, как классификация текста, генерация текста и обнаружение уязвимостей.
Автоматическая генерация кода может быть более перспективной, чем вспомогательные средства разработки. Автоматическая генерация кода подходит для смарт-контрактов, потому что смарт-контракты относительно короткие и относительно простые. Есть несколько способов, которыми LLM может помочь разработчикам автоматически генерировать код в пространстве блокчейна.
тест
Во-первых, LLM может генерировать тесты для хорошо написанных смарт-контрактов. Например, Codium может автоматически генерировать тесты для письменных проектов. В настоящее время Codium поддерживает JS и TS. Codium начинается с понимания кодовой базы, анализа каждой функции, строки документации и комментариев. Затем Codium записывает анализ кода обратно в файл в виде комментариев и выводит план тестирования. Пользователи могут выбрать предпочтительные тесты, и Codium сгенерирует выбранный тестовый код.
Другие вспомогательные инструменты также поддерживают создание тестов для выбранных функций.
Мы можем воспроизвести аналогичную функциональность на GPT-4, выполнив аналогичные шаги.
Сначала мы попросили провести анализ кода, потому что хотели, чтобы LLM уделял этой задаче больше времени. LLM не знает, какие задачи сложны. На каждый маркер тратится одинаковая вычислительная мощность. Это может привести к неточным результатам в сложных задачах. На основании этих характеристик мы запрашиваем анализ кода. Таким образом, LLM потратит больше токенов/времени на обдумывание этих задач и выдаст более качественные результаты. Этот метод также известен как «цепочка мышления».
Чтобы заставить его работать для более длинных смарт-контрактов, нам нужен LLM с более широким контекстом или какие-то инженерные решения для сохранения памяти.
Создание вспомогательных скриптов
Во-вторых, мы можем использовать LLM для автоматического создания некоторых вспомогательных сценариев, таких как сценарии развертывания.
Сценарии развертывания уменьшают количество потенциальных ошибок при развертывании вручную. Идея очень похожа на автоматическое создание тестов.
Автоматическое разветвление
На бычьем рынке будет много разветвленных проектов, в которых команды вносят небольшие изменения в исходный код. Это было бы отличным вариантом использования LLM: LLM может помочь разработчикам автоматически модифицировать код в соответствии с потребностями команды. Обычно требуется изменить только определенные части кода. Этого относительно легко достичь для LLM.
Автоматическая генерация кода
Если мы сделаем еще один шаг вперед, сможет ли LLM автоматически генерировать смарт-контракты в соответствии с потребностями разработчиков? По сравнению с другим сложным программным обеспечением, написанным на JS, Rust и Python, смарт-контракты относительно короткие и относительно простые. Внешних библиотек для смарт-контрактов не так много. Выяснить, как написать смарт-контракт, для LLM относительно легко.
Мы уже видели некоторый прогресс в автоматической генерации кода. GPT-инженер — один из пионеров. Он отвечает потребностям пользователя и отвечает на любые вопросы, которые могут возникнуть у LLM до начала кодирования. Код также включает скрипт, который запускает весь проект. GPT-engineer может автоматически запускать проекты для разработчиков.
После того, как пользователь вводит свои требования, GPT-инженер анализирует требования и запрашивает некоторые пояснения. Собрав всю необходимую информацию, GPT-инженер сначала выводит дизайн программы, включая основные классы, функции и методы, необходимые для этой задачи. Затем GPT-engineer сгенерирует код для каждого файла.
С такой подсказкой мы можем сгенерировать встречный смарт-контракт.
Смарт-контракты компилируются и работают должным образом.
Поскольку GPT-engineer изначально был разработан для Python, у него есть некоторые проблемы с созданием кода, связанного с Hardhat. GPT-инженер не знает о последней версии Hardhat и иногда генерирует устаревшие сценарии тестирования и развертывания.
Если в нашем коде есть ошибки, мы можем передать кодовую базу и журналы ошибок консоли в LLM. LLM может постоянно изменять код до тех пор, пока код не сможет успешно работать. Мы видим что-то вроде ** [flo] (Такие проекты развиваются в этом направлении. На данный момент flo поддерживает только JS.
Если мы хотим повысить точность генерации смарт-контрактов, мы можем улучшить GPT-инженер с некоторыми новыми подсказками. Мы можем принять метод разработки через тестирование, требующий от LLM проверки того, что программа проходит определенные тесты, чтобы лучше ограничить сгенерированную программу.
Используйте LLM для чтения кода
Поскольку LLM хорошо понимает код, мы можем использовать LLM для написания документации для разработчиков. LLM также может отслеживать изменения кода для обновления документации. Мы обсуждали этот подход в конце нашего предыдущего исследовательского отчета «Изучение опыта разработчиков в отношении ZKRU: подробный анализ».
Чтение документации — это традиционный способ, но общение с кодом — это новый способ. Пользователи могут задавать любые вопросы о коде, и LLM ответит на них. LLM может объяснить код для разработчиков и помочь им быстро понять смарт-контракты в цепочке. LLM также может помочь людям, не имеющим опыта программирования, разобраться в смарт-контрактах.
Мы уже видели эту тенденцию в мире Web2. Многие вспомогательные инструменты кода имеют возможности интерпретации кода.
Etherescan также продемонстрировал свою новую функциональность, позволяющую пользователям взаимодействовать с кодом, используя возможности LLM.
Как меняется аудит, когда код понятен? В экспериментах на тему «нужна ли вам проверка смарт-контрактов вручную» LLM достигла 40%-го процента попаданий при выявлении уязвимостей, превзойдя случайные базовые показатели. Однако они также имеют высокий уровень ложных срабатываний. Соответствующие подсказки являются ключевыми, отмечают авторы.
Помимо подсказок, его применение ограничивают следующие причины:
Эти проблемы решить не сложно. У крупных аудиторских фирм есть тысячи аудиторских отчетов, которые можно использовать для тонкой настройки LLM. Появляются LLM с большими ограничениями по токенам. У Клода есть лимит в 100 000 токенов. Недавно выпущенный LTM-1 имеет впечатляющий лимит в 5 миллионов токенов. Усилия по решению этих двух проблем могут привести к тому, что LLM станут лучше выявлять уязвимости. LLM может помочь аудиторам и ускорить процесс аудита. Это может развиваться постепенно. Вот возможные пути развития:
Помогите аудиторам организовать язык и формат отчетов. Это обеспечивает языковую согласованность в рамках одной и той же аудиторской фирмы. Часто разные группы могут иметь разный предпочтительный словарный запас.
Помогите аудиторам выявить и проверить потенциальные уязвимости.
Автоматически генерировать черновик аудиторского отчета.
Используйте LLM, чтобы помочь сообществу
Управление является важной частью общества. Члены сообщества имеют право голосовать за понравившиеся предложения. Эти предложения определят будущее продукта.
Для важных предложений будет много справочной информации и обсуждения в сообществе. Членам сообщества трудно полностью понять этот контекст до голосования. LLM может помочь членам сообщества быстро понять последствия их выбора в будущем и помочь им проголосовать.
Боты, отвечающие на вопросы, — еще одно потенциальное приложение. Мы видели ботов для вопросов и ответов, основанных на проектной документации. Мы можем пойти дальше, чтобы создать большую базу данных знаний. Мы можем подключать различные медиа и источники, такие как презентации, подкасты, GitHub, чаты Discord и Twitter Spaces. Боты для вопросов и ответов существуют не только в строке поиска документации, но также могут оказывать мгновенную поддержку членам сообщества в Discord или распространять видение проекта в Twitter и отвечать на любые вопросы.
AwesomeQA в настоящее время развивается в этом направлении. Он реализует три функции:
Одна из трудностей, с которыми в настоящее время сталкиваются роботы, отвечающие на вопросы, заключается в том, как точно получить соответствующий контекст из базы данных векторов и предоставить контекст LLM. Например, если пользователь запрашивает запрос с фильтрами по нескольким функциям для нескольких элементов, робот может не получить соответствующий контекст из векторной базы данных.
Обновление базы данных векторов — еще одна проблема. Текущее решение состоит в том, чтобы перестроить базу данных векторов или обновить базу данных векторов через пространство имен. Добавление пространств имен к встраиваниям похоже на добавление меток к данным. Это помогает разработчикам легче находить и обновлять подходящие встраивания.
Используйте LLM для отслеживания рынка
Рынок сильно меняется, и многие вещи происходят каждый день. Например, KOL (Key Opinion Leaders), которые публикуют новые идеи и размышления, информационные бюллетени и электронные письма о продуктах, поступающие в ваш почтовый ящик. LLM может выбрать для вас самые важные идеи и новости. Он также обобщает содержание, чтобы сократить время чтения и помочь вам не отставать от динамики рынка.
minmax.ai посвящен журналистике. Они предоставляют сводки последних новостей по определенной теме, а также предоставляют анализ настроений по этой теме.
Скучные репортажи лишают новости сенсационного содержания и сосредотачиваются на важных деталях, чтобы помочь читателям принять правильное решение.
Робо-консультации сейчас — одна из самых популярных сфер. LLM может стимулировать использование роботов-консультантов. LLM может предоставлять торговые рекомендации и помогать пользователям управлять портфелями на основе информации об акциях.
Такие проекты, как Numer.ai, используют ИИ для прогнозирования рынков и управления фондами. Есть также портфели, которыми управляет LLM. Пользователи могут следить за этими портфолио на Robinhood.
Composer предлагает торговые алгоритмы с искусственным интеллектом. ИИ строит конкретные торговые стратегии на основе мнений пользователей. Затем ИИ автоматически проверит эти торговые стратегии на истории. Если пользователя устраивают политики, Composer может автоматически применять эти политики для пользователя.
Анализ проектов с использованием LLM
Аналитические проекты часто включают в себя чтение больших объемов материала и написание длинных исследовательских работ. LLM может читать и писать короткие абзацы. Если мы можем расширить его возможности до длинных абзацев, означает ли это, что LLM может каким-то образом вывести некоторые исследования проекта? Скорее всего да. Мы можем вводить официальные документы, документы или презентации событий и позволять LLM анализировать проекты и учредителей. Ограниченное количеством токенов, мы можем сначала написать план статьи, а затем обновить и оптимизировать каждую часть в соответствии с полученной информацией.
Такие проекты, как BabyAGI, уже продвигаются в этом направлении. Ниже приведен пример вывода BlockAGI, варианта BabyAGI.
LLM также может анализировать личность основателя на основе Twitter и публичных выступлений. Например, Tweet Analyzer может брать последние твиты и использовать LLM для анализа личных качеств.
в заключение
Вот восемь конкретных направлений, в которых LLM может помочь блокчейн-сообществу в ближайшем будущем:
Интегрируйте встроенные функции AI/LLM в блокчейн.
Используйте LLM для анализа записей транзакций.
Повысьте безопасность с помощью LLM.
Напишите код, используя LLM.
Используйте LLM, чтобы прочитать код.
Используйте LLM для помощи сообществу.
Используйте LLM для отслеживания рынка.
Применить LLM для анализа проектов.
LLM может принести пользу всем участникам криптопространства, включая владельцев проектов, аналитиков и инженеров. Основатели могут использовать LLM для автоматизации таких задач, как документация и вопросы и ответы. Инженеры могут использовать LLM для более быстрого и безопасного написания кода. Аналитикам легче исследовать проекты.
В долгосрочной перспективе мы также видим потенциальную возможность применения LLM в пространстве GameFi. LLM может генерировать более интересные задания в игре и играть разные роли в игре. Мир в игре станет более реальным и интересным. NPC будут реагировать динамически в зависимости от действий игрока. Квесты будут иметь больше концовок в зависимости от того, как пользователь их решает.
LLM может быть интегрирован в существующие проекты, но также открывает возможности для новых участников. Например, уже есть несколько ведущих игроков в области анализа данных в сети. Dune может интегрировать LLM для улучшения взаимодействия с пользователем. Однако LLM также предоставляет возможности для новых участников. Эти новые участники могут поставить LLM в основу дизайна своего продукта. Эти творческие продукты, основанные на ИИ и ориентированные на ИИ, могут создать новую конкуренцию в области анализа данных в сети.
Существует перекрытие в использовании LLM в мирах Web2 и Web3, но они могут реализовывать продукты по-разному. Потому что данные, которые мы используем в мире Web3, отличаются от данных в мире Web2. База знаний LLM также может различаться в Web2 и Web3. Данные Web3 включают в себя блокчейны, цены на токены, твиты, проекты и исследования. Следовательно, Web2 и Web3 требуют разных LLM для обслуживания конечных пользователей.
Из-за бума LLM мы наблюдаем растущую популярность AIxBlockchain. Однако многие AIxBlockchains непрактичны в течение короткого периода времени. Блокчейн и доказательства с нулевым разглашением не могут обеспечить крупномасштабную вычислительную мощность для обучения и рассуждений для некоторых сложных моделей. Маленькие модели не могут решать сложные задачи. Более практичным подходом является применение LLM в домене блокчейна. В последнее время LLM добилась большего прогресса, чем другие темы ИИ. Логичнее совмещать LLM и блокчейн.
Сообщество LLM работает над улучшением лимитов токенов и повышением точности ответов. Что осталось сообществу блокчейнов, так это источники данных и конвейеры данных. Очищенные данные можно использовать для тонкой настройки LLM для повышения точности в среде блокчейна. Конвейеры данных могут интегрировать больше приложений, связанных с блокчейном, в LLM и разрабатывать больше криптоспецифических агентов.