AI và sự va chạm của DePIN: Khám phá sự phát triển mạng GPU Phi tập trung

Điểm giao nhau giữa AI và DePIN: Khám phá sự phát triển của mạng GPU Phi tập trung

Kể từ năm 2023, AI và DePIN đã thu hút nhiều sự chú ý trong lĩnh vực Web3, với giá trị thị trường của cả hai lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ tập trung vào lĩnh vực giao thoa giữa hai bên, khám phá tình hình phát triển của các giao thức liên quan.

Trong hệ sinh thái công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để tăng cường khả năng của AI. Do sự phát triển của các công ty công nghệ lớn dẫn đến tình trạng thiếu GPU, các nhà phát triển khác gặp khó khăn trong việc có đủ tài nguyên GPU để xây dựng mô hình AI của riêng họ. Truyền thống, các nhà phát triển sẽ chọn nhà cung cấp dịch vụ đám mây tập trung, nhưng điều này thường yêu cầu ký kết hợp đồng dài hạn không linh hoạt và hiệu suất thấp.

DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn. Nó khuyến khích đóng góp tài nguyên thông qua phần thưởng token, huy động tài nguyên GPU từ các chủ sở hữu cá nhân đến trung tâm dữ liệu, tạo ra một nguồn cung đồng nhất cho những người dùng cần phần cứng. Điều này không chỉ cung cấp cho các nhà phát triển khả năng tính toán tùy chỉnh và theo yêu cầu, mà còn mang lại cho các chủ sở hữu GPU một nguồn thu nhập bổ sung.

Trên thị trường đã có nhiều mạng DePIN AI, mỗi mạng đều có những đặc điểm riêng. Tiếp theo, chúng ta sẽ khám phá một số đặc điểm và mục tiêu của các dự án chính, cũng như một số thành tựu cụ thể của chúng.

AI và điểm giao nhau của DePIN

Tổng quan về mạng DePIN AI

Render là tiên phong của mạng P2P cung cấp khả năng tính toán GPU, ban đầu tập trung vào việc tạo nội dung và sau đó mở rộng sang các nhiệm vụ tính toán AI.

Đặc điểm:

  • Được thành lập bởi công ty đồ họa đám mây OTOY với công nghệ đoạt giải Oscar
  • Mạng GPU đã được các công ty lớn trong ngành giải trí sử dụng, như Paramount Pictures, PUBG, v.v.
  • Hợp tác với Stability AI và Endeavor, tích hợp mô hình AI vào quy trình làm việc dựng nội dung 3D
  • Phê duyệt nhiều khách hàng tính toán, tích hợp nhiều GPU của mạng DePIN hơn

Akash được định vị là "siêu đám mây" thay thế hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, có thể triển khai phần mềm một cách liền mạch qua các môi trường, chạy bất kỳ ứng dụng gốc đám mây nào.

Đặc điểm:

  • Đối với các tác vụ tính toán rộng rãi từ tính toán tổng quát đến lưu trữ web
  • AkashML cho phép mạng GPU của mình chạy hơn 15,000 mô hình trên Hugging Face
  • Đã quản lý một số ứng dụng nổi tiếng, như chatbot mô hình LLM của Mistral AI, mô hình SDXL của Stability AI, v.v.
  • Hỗ trợ xây dựng nền tảng cho vũ trụ ảo, triển khai AI và học tập liên bang

io.net cung cấp quyền truy cập vào cụm đám mây GPU phân tán, chuyên dụng cho các trường hợp AI và ML. Nó tổng hợp tài nguyên GPU từ các trung tâm dữ liệu, thợ mỏ tiền điện tử và các mạng Phi tập trung khác.

Đặc điểm:

  • IO-SDK tương thích với các framework như PyTorch và Tensorflow, kiến trúc đa lớp có thể được mở rộng động theo nhu cầu.
  • Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong 2 phút
  • Hợp tác với nhiều mạng DePIN như Render, Filecoin, Aethir, tích hợp tài nguyên GPU

Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó cải thiện hiệu suất thông qua cơ chế xác thực đổi mới.

Đặc điểm:

  • Chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la, tiết kiệm chi phí đáng kể
  • Thông qua việc chứng minh ngăn xếp, có thể tinh chỉnh mô hình cơ sở đã được đào tạo trước.
  • Những mô hình cơ bản này sẽ là Phi tập trung, thuộc về toàn cầu

Aethir chuyên cung cấp GPU cho doanh nghiệp, tập trung vào các lĩnh vực tính toán tập trung, như AI, ML và game đám mây. Các container trong mạng của nó đóng vai trò là điểm cuối ảo để thực thi các ứng dụng dựa trên đám mây.

Đặc điểm:

  • Ngoài AI và trò chơi đám mây, còn mở rộng sang dịch vụ điện thoại đám mây, hợp tác với APhone phát hành điện thoại thông minh đám mây Phi tập trung.
  • Thiết lập hợp tác rộng rãi với các công ty lớn Web2 như NVIDIA, Super Micro, HPE
  • Hợp tác với nhiều dự án Web3 như CARV, Magic Eden

Phala Network là lớp thực thi cho giải pháp Web3 AI. Chuỗi khối của nó là một giải pháp điện toán đám mây không cần tin cậy, xử lý các vấn đề về quyền riêng tư thông qua môi trường thực thi đáng tin cậy (TEE).

Đặc điểm:

  • Đóng vai trò là giao thức đồng xử lý có thể xác minh, giúp các tác nhân AI có thể truy cập tài nguyên trên chuỗi.
  • Hợp đồng đại lý AI có thể truy cập OpenAI, Llama và các mô hình ngôn ngữ lớn hàng đầu khác thông qua Redpill
  • Tương lai sẽ bao gồm zk-proofs, tính toán đa bên, hệ thống chứng minh đa dạng như mã hóa đồng nhất.
  • Hỗ trợ tương lai cho H100 và các GPU TEE khác, nâng cao khả năng tính toán

AI và điểm giao nhau của DePIN

So sánh dự án

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm tập trung | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Cả hai | Cả hai | Huấn luyện | Huấn luyện | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa& băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí làm việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỉ lệ với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Hoàn thành chứng minh | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người báo cáo | Nút kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |

tầm quan trọng

Khả năng sẵn có của cụm và tính toán song song

Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình, đồng thời tăng cường khả năng mở rộng. Đào tạo các mô hình AI phức tạp yêu cầu khả năng tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1.8 triệu tỷ tham số, được đào tạo trong 3-4 tháng với khoảng 25,000 GPU Nvidia A100 trong 128 cụm.

Hầu hết các dự án trọng điểm hiện nay đã tích hợp các cụm để thực hiện tính toán song song. io.net hợp tác với các dự án như Render, Filecoin và Aethir để đưa nhiều GPU vào mạng lưới của mình, và đã triển khai hơn 3.800 cụm trong quý 1 năm 24. Render không hỗ trợ cụm, nhưng hoạt động của nó tương tự, phân rã một khung đơn thành nhiều nút để xử lý đồng thời. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.

Quyền riêng tư dữ liệu

Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, những dữ liệu này có thể chứa thông tin nhạy cảm. Đảm bảo quyền riêng tư của dữ liệu là rất quan trọng để trao quyền kiểm soát dữ liệu trở lại cho nhà cung cấp dữ liệu.

Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư của dữ liệu. Render sử dụng mã hóa và xử lý băm khi công bố kết quả kết xuất, io.net và Gensyn áp dụng mã hóa dữ liệu, Akash sử dụng xác thực mTLS.

io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng nhất (FHE), cho phép xử lý dữ liệu mã hóa mà không cần giải mã trước. Phala Network đã giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các quy trình bên ngoài truy cập hoặc sửa đổi dữ liệu.

Tính toán bằng chứng hoàn thành và kiểm tra chất lượng

Do đó, cần hoàn thành cơ chế chứng minh và kiểm tra chất lượng vì GPU được cung cấp bởi các dự án này có thể được sử dụng cho nhiều dịch vụ, từ việc kết xuất đồ họa đến tính toán AI.

Gensyn và Aethir sẽ tạo chứng chỉ sau khi tính toán hoàn tất, chứng chỉ từ io.net cho thấy hiệu suất GPU thuê được sử dụng đầy đủ. Gensyn và Aethir sẽ thực hiện kiểm tra chất lượng đối với các phép tính đã hoàn thành. Render đề xuất sử dụng quy trình giải quyết tranh chấp. Sau khi Phala hoàn tất, sẽ tạo chứng chỉ TEE, đảm bảo rằng đại lý AI thực hiện các thao tác cần thiết trên chuỗi.

AI và giao điểm của DePIN

Dữ liệu thống kê phần cứng

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | H100 chi phí/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |

Yêu cầu về GPU hiệu suất cao

Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, chẳng hạn như A100 và H100 của Nvidia. Hiệu suất suy diễn của H100 nhanh hơn A100 gấp 4 lần, đã trở thành GPU được lựa chọn hàng đầu, đặc biệt là đối với những công ty lớn đang đào tạo LLM của riêng họ.

Các nhà cung cấp thị trường GPU Phi tập trung cần phải cạnh tranh với các đồng nghiệp Web2 không chỉ bằng cách cung cấp giá thấp hơn mà còn phải đáp ứng nhu cầu thực tế của thị trường. Năm 2023, Nvidia đã giao hơn 500.000 chiếc H100 cho các công ty công nghệ lớn tập trung, điều này đã khiến việc có được phần cứng tương đương trở nên khó khăn.

io.net và Aethir mỗi bên sở hữu hơn 2000 đơn vị H100 và A100, phù hợp hơn cho tính toán mô hình lớn. Theo kích thước cụm mà các nhà phát triển cần, hiện tại chi phí của các dịch vụ GPU phi tập trung này đã thấp hơn nhiều so với dịch vụ GPU tập trung.

Mặc dù cụm GPU kết nối mạng bị hạn chế về bộ nhớ, nhưng đối với những người dùng cần tính linh hoạt và khả năng phân bổ khối lượng công việc trên nhiều nút, mạng GPU phi tập trung vẫn có thể cung cấp sức mạnh tính toán và khả năng mở rộng mạnh mẽ cho các nhiệm vụ tính toán phân tán.

Cung cấp GPU/CPU tiêu dùng

CPU cũng đóng vai trò quan trọng trong việc đào tạo mô hình AI, có thể được sử dụng cho nhiều khâu từ tiền xử lý dữ liệu đến quản lý tài nguyên bộ nhớ. GPU tiêu dùng có thể được sử dụng cho các nhiệm vụ không quá cường độ, chẳng hạn như tinh chỉnh mô hình đã được huấn luyện trước hoặc đào tạo mô hình quy mô nhỏ trên tập dữ liệu nhỏ.

Xem xét rằng hơn 85% tài nguyên GPU của người tiêu dùng đang ở trạng thái nhàn rỗi, các dự án như Render, Akash và io.net cũng có thể phục vụ cho thị trường này. Cung cấp những tùy chọn này có thể cho phép họ phát triển vị trí thị trường riêng của mình, tập trung vào tính toán mật độ lớn, kết xuất quy mô nhỏ hoặc sự kết hợp của cả hai.

AI và DePIN giao điểm

Kết luận

Lĩnh vực AI DePIN vẫn còn tương đối mới mẻ và đang phải đối mặt với những thách thức của chính nó. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng GPU phi tập trung này đã tăng đáng kể, làm nổi bật nhu cầu ngày càng tăng về các giải pháp thay thế cho tài nguyên phần cứng của các nhà cung cấp đám mây Web2. Đồng thời, sự gia tăng số lượng nhà cung cấp phần cứng cũng cho thấy nguồn cung chưa được khai thác đầy đủ trước đây. Điều này càng chứng minh độ phù hợp của thị trường sản phẩm của mạng AI DePIN, hiệu quả giải quyết những thách thức về nhu cầu và cung.

Nhìn về tương lai, AI có triển vọng phát triển thành một thị trường hàng nghìn tỷ đô la đang bùng nổ. Những mạng GPU phi tập trung này sẽ đóng vai trò quan trọng trong việc cung cấp các giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển. Bằng cách liên tục thu hẹp khoảng cách giữa nhu cầu và cung, những mạng này sẽ đóng góp đáng kể vào cấu trúc tương lai của AI và cơ sở hạ tầng tính toán.

AI và DePIN's điểm giao nhau

AI và điểm giao nhau của DePIN

AI và điểm giao nhau của DePIN

AI và điểm giao nhau của DePIN

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 7
  • Chia sẻ
Bình luận
0/400
LiquidationWatchervip
· 9giờ trước
Rõ ràng GPU vẫn là chiến thắng trung tâm.
Xem bản gốcTrả lời0
MidnightSellervip
· 9giờ trước
À đây... gpu lại sắp có thị trường tăng?
Xem bản gốcTrả lời0
AirdropworkerZhangvip
· 9giờ trước
Nói thật, ai còn làm AI nữa, giờ ai cũng đang đổ xô vào depin.
Xem bản gốcTrả lời0
AirdropHunterKingvip
· 9giờ trước
Cắt lỗ撸过的N个 Airdrop都在路上了
Xem bản gốcTrả lời0
CoconutWaterBoyvip
· 9giờ trước
Thiếu GPU? Giống như tìm người khai thác bằng đèn pin vậy.
Xem bản gốcTrả lời0
Layer2Arbitrageurvip
· 9giờ trước
*ngáp* chỉ là một cải tiến hiệu suất 300bps khác... đánh thức tôi dậy khi chúng ta đạt được tỷ lệ sử dụng gpu 10x
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)