Поява AI DePIN: Децентралізація мережі GPU перетворює обчислювальну інфраструктуру

Злиття AI та DePIN: підйом децентралізованих GPU-мереж

Нещодавно AI та DePIN стали популярними тенденціями в сфері Web3, їхня ринкова капіталізація становить відповідно 30 мільярдів доларів та 23 мільярди доларів. У цій статті буде зосереджено увагу на перетині цих двох галузей, а також обговорено розвиток відповідних протоколів.

! Перетин AI та DePIN

У технологічному стеку AI мережа DePIN надає обчислювальні ресурси для надання можливостей AI. Через нестачу GPU, спричинену великими технологічними компаніями, іншим розробникам важко отримати достатню кількість GPU для обчислень моделей AI. Традиційний підхід полягає у виборі централізованих хмарних постачальників послуг, але це вимагає підписання не гнучких довгострокових контрактів, що є неефективним.

DePIN пропонує більш гнучке та економічно вигідне рішення, заохочуючи внески ресурсів через токенні винагороди. DePIN у сфері ШІ інтегрує індивідуальні GPU-ресурси в дата-центри, забезпечуючи користувачів єдиним постачанням. Це не лише надає розробникам кастомізовані послуги на вимогу, а й створює додатковий дохід для власників GPU.

На ринку існує кілька AI DePIN мереж, у цій статті буде проаналізовано функції, цілі та досягнення кожного протоколу, а також їх відмінності.

Огляд мережі DePIN на базі ШІ

Рендер

Render є піонером P2P GPU обчислювальної мережі, спочатку зосереджуючись на рендерингу контенту, а пізніше розширившися на AI обчислювальні завдання за рахунок інтеграції таких інструментів, як Stable Diffusion.

Яскраві моменти:

  • Заснована компанією OTOY, що отримала Оскар за технології
  • Paramount Pictures, PUBG та інші гіганти розважальної індустрії використовують свою GPU мережу
  • Співпраця з Stability AI тощо для інтеграції моделей ШІ з робочими потоками рендерингу 3D-контенту
  • Схвалити кілька обчислювальних клієнтів, інтегрувати більше GPU мереж DePIN

Акаш

Akash позиціонується як "супер-хмара" платформа, що підтримує зберігання, GPU та CPU обчислення, замінюючи традиційних постачальників послуг, таких як AWS. Використовуючи контейнерну платформу та обчислювальні вузли, керовані Kubernetes, можна безперешкодно розгортати будь-які хмарні додатки.

Яскраві моменти:

  • Орієнтований на широкий спектр обчислювальних завдань, від загальних обчислень до мережевого хостингу
  • AkashML дозволяє запускати понад 15 000 моделей на Hugging Face
  • Хостинг чат-бота LLM від Mistral AI, SDXL від Stability AI та інших застосунків
  • Метавсесвіт, платформи ІІ-розгортання та федеративного навчання використовують свій Supercloud

io.net

io.net надає розподілені GPU хмарні кластери, спеціально призначені для AI та ML сценаріїв. Інтегрує ресурси GPU з центрів обробки даних, криптомайнерів та інших сфер.

Яскраві моменти:

  • IO-SDK сумісний з PyTorch та іншими фреймворками, багатошарова архітектура може автоматично розширюватися відповідно до вимог
  • Підтримка створення 3-х різних типів кластерів, запуск за 2 хвилини
  • Співпраця з Render, Filecoin та інші для інтеграції більшої кількості ресурсів GPU

Генсин

Gensyn надає обчислювальні можливості GPU, зосереджуючись на машинному навчанні та глибокому навчанні. Підвищує ефективність верифікації за допомогою механізмів, таких як доказ навчання.

Яскраві моменти:

  • Вартість V100 GPU на годину становить приблизно 0,40 доларів США, що суттєво економить витрати.
  • За допомогою підтвердження стеку можна виконати доопрацювання попередньо навченої базової моделі
  • Базова модель буде Децентралізація, глобальною власністю, надаючи додаткові функції

Етір

Aethir спеціально обладнаний корпоративними GPU, зосереджуючи увагу на обчислювально інтенсивних галузях, таких як ШІ, МЛ, хмарні ігри тощо. Завдяки контейнерам робоче навантаження переміщується з локального на хмарний рівень, що забезпечує низьку затримку.

Яскраві моменти:

  • Розширення на послуги хмарних телефонів, співпраця з APhone для запуску Децентралізація хмарного телефону
  • Встановлення широкого співробітництва з гігантами Web2, такими як NVIDIA, Super Micro
  • У сфері Web3 співпраця з кількома компаніями, такими як CARV, Magic Eden тощо

Мережа Phala

Phala Network як виконуючий шар Web3 AI рішень, вирішує проблеми конфіденційності через надійне середовище виконання (TEE). Це дозволяє AI агентам контролюватися смарт-контрактами на блокчейні.

Яскраві моменти:

  • Виконує роль протоколу кооперативного процесора для перевірки обчислень, що дозволяє агентам ШІ використовувати ресурси на блокчейні
  • Контракт AI-агента можна отримати через Redpill, щоб отримати доступ до таких провідних LLM, як OpenAI.
  • Майбутнє включатиме такі багатосистеми доказів, як zk-proofs, MPC, FHE тощо
  • Планується підтримка H100 та інших TEE GPU, підвищення обчислювальної спроможності

Порівняння проектів

| | Рендер | Акаш | io.net | Генсин | Етір | Пхала | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | Апаратне забезпечення | Графічний процесор & Центральний процесор | Графічний процесор & Центральний процесор | Графічний процесор & Центральний процесор | Відеокарта | Відеокарта | Центральний процесор | | Бізнес-орієнтація | Графічний рендеринг та ШІ | Хмарні обчислення, рендеринг та ШІ | ШІ | ШІ | ШІ, хмарні ігри та телекомунікації | Виконання ШІ на ланцюгу | | Типи завдань AI | Висновок | Двосторонній | Двосторонній | Навчання | Навчання | Виконання | | Ціноутворення роботи | На основі продуктивності | Зворотні аукціони | Ринкове ціноутворення | Ринкове ціноутворення | Система тендерів | Розрахунок прав | | Блокчейн | Солана | Космос | Солана | Генсин | Арбітраж | Горошок | | Приватність даних | Шифрування&хешування | mTLS автентифікація | Шифрування даних | Безпечне відображення | Шифрування | TEE | | Витрати на роботу | 0.5-5%/робота | 20% USDC, 4% AKT | 2% USDC, 0.25% резервний фонд | Низькі витрати | 20%/сесія | Пропорційно до стейкингу | | Безпека | Доказування рендерингу | Доказування прав власності | Доказування обчислень | Доказування прав власності | Доказування рендерингових можливостей | Спадкування з релейного ланцюга | | Завершення доказу | - | - | Доказ часового замка | Доказ навчання | Доказ рендерингової роботи | Доказ TEE | | Гарантія якості | Механізм суперечок | - | - | Верифікатори та повідомлення | Перевірка вузлів | Віддалене підтвердження | | GPU кластер | Ні | Так | Так | Так | Так | Ні |

! Перетин AI та DePIN

Значення

Доступність кластерних та паралельних обчислень

Розподілена обчислювальна система реалізує кластер GPU, забезпечуючи більш ефективне навчання та підвищуючи масштабованість. Навчання складних AI-моделей вимагає потужних обчислювальних можливостей, зазвичай покладається на розподілені обчислення. Наприклад, модель GPT-4 від OpenAI має понад 1,8 трильйона параметрів, навчання займає 3-4 місяці, використовуючи 128 кластерів приблизно 25 000 Nvidia A100 GPU.

Більшість проєктів наразі вже реалізували об'єднання кластерів для виконання паралельних обчислень. io.net у співпраці з іншими проєктами вже у Q1 розгорнув понад 3,800 кластерів. Render, хоч і не підтримує кластери, але розподіляє один кадр для одночасної обробки на кількох вузлах. Phala наразі підтримує лише CPU, але дозволяє кластеризацію CPU-робітників.

Кластерна структура є важливою для мережі робочих процесів AI, але кількість і типи кластерних GPU, які відповідають потребам розробників AI, є іншим питанням.

Конфіденційність даних

Розробка моделей ШІ потребує великої кількості наборів даних, що можуть містити чутливу інформацію. Методи захисту даних є вкрай важливими для забезпечення контролю над даними.

Більшість проектів використовують певний вид криптографії для захисту приватності даних. Render використовує шифрування та хешування під час публікації результатів рендерингу. io.net та Gensyn використовують шифрування даних. Akash використовує mTLS автентифікацію, дозволяючи лише зазначеним постачальникам отримувати дані.

io.net нещодавно співпрацював з Mind Network для впровадження повністю однорідного шифрування (FHE), що дозволяє безпосередню обробку зашифрованих даних. Це краще захищає конфіденційність, ніж існуючі технології шифрування.

Phala Network впроваджує надійне середовище виконання ( TEE ), яке ізолює та запобігає зовнішньому доступу або змінам даних. Воно також використовує zk-докази для інтеграції програм RiscZero zkVM.

Обчислення завершено, доведення та перевірка якості

Результат обчислень підтверджує, що GPU дійсно використовуються для необхідних послуг, контроль якості є корисним для користувачів.

Gensyn та Aethir генерують докази виконання роботи, io.net підтверджує, що продуктивність GPU використовується належним чином. Gensyn та Aethir проводять перевірку якості. Gensyn використовує валідаторів для повторного запуску частини доказів, а заявник слугує додатковою перевіркою. Aethir використовує контрольні вузли для оцінки якості послуг. Render рекомендує використовувати процес вирішення суперечок для обробки проблемних вузлів. Phala генерує TEE-докази, щоб забезпечити виконання необхідних операцій AI-агентом.

Статистичні дані про апаратуру

| | Рендер | Акаш | io.net | Генсин | Етір | Пхала | |-------------|--------|-------|--------|------------|------------|--------| | Кількість GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Кількість CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Кількість H100/A100 | - | 157 | 2330 | - | 2000+ | - | | H100 витрати/годину | - | $1.46 | $1.19 | - | - | - | | A100 витрати/година | - | $1.37 | $1.50 | $0.55 ( очікується ) | $0.33 ( очікується ) | - |

! Перетин AI та DePIN

Попит на високопродуктивні GPU

Моделі штучного інтелекту схильні використовувати високопродуктивні графічні процесори, такі як Nvidia A100 та H100. Продуктивність H100 у процесі інференції в 4 рази вища за A100, що робить його вибором номер один для великих компаній, які тренують LLM.

Децентралізація GPU ринку постачальників повинна не тільки пропонувати нижчі ціни, але й задовольняти реальні потреби. У 2023 році Nvidia доставила понад 500 тисяч H100 великим технологічним компаніям, що ускладнило отримання аналогічного обладнання. Важливо враховувати кількість обладнання, яке можна впровадити в проекти з низькими витратами.

Akash має лише трохи більше 150 H100 та A100, тоді як io.net та Aethir мають більше 2000. Для попереднього навчання LLM зазвичай потрібно від 248 до більше 2000 GPU кластерів, тоді як останні два проекти більше підходять для обчислень великих моделей.

Наразі витрати на децентралізовані GPU-сервіси вже нижчі, ніж на централізовані. Gensyn та Aethir стверджують, що оренда обладнання рівня A100 коштує менше 1 долара за годину, але це ще потрібно перевірити.

Хоча мережеве підключення кластерів GPU є дешевим, пам'ять обмежена. NVLink підтримує пряму комунікацію між GPU, що підходить для LLMS з великою кількістю параметрів та великими наборами даних.

Незважаючи на це, децентралізована GPU мережа все ще забезпечує потужні можливості та масштабованість для розподілених обчислень, відкриваючи олігополію для створення більшої кількості випадків використання AI та ML.

! Перетин AI та DePIN

Надання споживчих GPU/CPU

ЦП також відіграє важливу роль у навчанні AI-моделей, використовуючи для попередньої обробки даних та управління пам'яттю. Споживчі графічні процесори можуть використовуватися для доопрацювання попередньо навчених моделей або для невеликого обсягу навчання.

Враховуючи, що понад 85% споживачів мають невикористані GPU, такі проекти, як Render, Akash та io.net, також можуть обслуговувати цей ринок. Надання цих варіантів дозволяє їм розвивати унікальну ринкову позицію, зосереджуючись на масштабних обчисленнях, загальному маломасштабному рендерингу або змішаних моделях.

Висновок

Сфера AI DePIN все ще нова, і стикається з викликами. Наприклад, io.net був звинувачений у фальсифікації кількості GPU, але потім вирішив проблему, впровадивши доказ роботи.

Попри це, кількість завдань та обладнання, які виконуються в децентралізованій GPU мережі, значно зросла, що підкреслює зростання попиту на альтернативи веб2 хмарним сервісам. Різке зростання постачальників обладнання також свідчить про раніше недоексплуатовану пропозицію. Це підтверджує відповідність продуктів AI DePIN мережі ринку, ефективно вирішуючи виклики попиту та пропозиції.

З оглядом на майбутнє, AI розвиватиметься в бурхливий ринок на десятки трильйонів доларів, ці децентралізовані GPU-мережі нададуть розробникам економічно ефективні альтернативи обчислення. Постійно зменшуючи розрив між попитом і пропозицією, ці мережі зроблять значний внесок у майбутній ландшафт AI та обчислювальної інфраструктури.

! Перетин AI та DePIN

! Перетин AI та DePIN

! Перетин AI та DePIN

! Перетин AI та DePIN

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • 4
  • Поділіться
Прокоментувати
0/400
MEVHuntervip
· 13год тому
Роздрібний інвестор також може отримати свій шматок пирога
Переглянути оригіналвідповісти на0
LiquidationWatchervip
· 13год тому
Добра можливість
Переглянути оригіналвідповісти на0
GateUser-4745f9cevip
· 13год тому
Вирішено проблему ресурсного занепокоєння
Переглянути оригіналвідповісти на0
SandwichHuntervip
· 14год тому
Час купувати картки для майнінгу
Переглянути оригіналвідповісти на0
  • Закріпити