AI DePIN trỗi dậy: Phi tập trung mạng GPU tái tạo cơ sở hạ tầng tính toán

Giao thoa giữa AI và DePIN: Sự trỗi dậy của mạng GPU Phi tập trung

Gần đây, AI và DePIN đã trở thành xu hướng phổ biến trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ tập trung vào lĩnh vực giao thoa giữa hai bên, khám phá sự phát triển của các giao thức liên quan.

AI và điểm giao nhau của DePIN

Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để tăng cường sức mạnh cho AI. Do các công ty công nghệ lớn gây ra tình trạng khan hiếm GPU, các nhà phát triển khác khó có thể có đủ GPU để tính toán mô hình AI. Cách làm truyền thống là chọn nhà cung cấp dịch vụ đám mây tập trung, nhưng phải ký hợp đồng dài hạn không linh hoạt, kém hiệu quả.

DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên bằng phần thưởng token. DePIN trong lĩnh vực AI tích hợp tài nguyên GPU cá nhân vào trung tâm dữ liệu, cung cấp nguồn cung đồng nhất cho người dùng. Điều này không chỉ cung cấp dịch vụ tùy chỉnh theo nhu cầu cho các nhà phát triển, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.

Trên thị trường có nhiều mạng AI DePIN, bài viết này sẽ phân tích chức năng, mục tiêu và thành tựu của từng giao thức, cũng như sự khác biệt giữa chúng.

Tổng quan về mạng DePIN AI

Render

Render là người tiên phong trong mạng tính toán GPU P2P, ban đầu tập trung vào việc tạo nội dung và sau đó mở rộng sang các nhiệm vụ tính toán AI thông qua việc tích hợp các công cụ như Stable Diffusion.

Điểm nổi bật:

  • Được thành lập bởi công ty OTOY với công nghệ đoạt giải Oscar
  • Paramount Pictures, PUBG và các ông lớn trong ngành giải trí sử dụng mạng GPU của họ
  • Hợp tác với Stability AI và các công ty khác để tích hợp mô hình AI vào quy trình làm việc render nội dung 3D
  • Phê duyệt nhiều khách hàng tính toán, tích hợp thêm GPU của các mạng DePIN.

Akash

Akash được định vị là nền tảng "đám mây siêu" hỗ trợ lưu trữ, tính toán GPU và CPU, thay thế các nhà cung cấp dịch vụ truyền thống như AWS. Sử dụng nền tảng container và các nút tính toán được quản lý bằng Kubernetes, có thể triển khai liền mạch bất kỳ ứng dụng gốc đám mây nào.

Điểm nổi bật:

  • Hướng tới các nhiệm vụ tính toán rộng rãi từ tính toán chung đến lưu trữ mạng
  • AkashML cho phép chạy hơn 15.000 mô hình trên Hugging Face
  • Ứng dụng chatbot LLM của Mistral AI, SDXL của Stability AI, v.v.
  • Metaverse, triển khai AI và nền tảng học tập liên bang sử dụng Supercloud của nó

io.net

io.net cung cấp cụm đám mây GPU phân tán, chuyên dụng cho các tình huống AI và ML. Tích hợp tài nguyên GPU từ các lĩnh vực như trung tâm dữ liệu, thợ mỏ tiền điện tử.

Điểm nổi bật:

  • IO-SDK tương thích với các framework như PyTorch, kiến trúc đa lớp có thể tự động mở rộng theo nhu cầu
  • Hỗ trợ tạo 3 loại cụm khác nhau, khởi động trong vòng 2 phút
  • Hợp tác với Render, Filecoin và tích hợp nhiều tài nguyên GPU hơn

Gensyn

Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Tăng cường hiệu quả xác thực thông qua các cơ chế như bằng chứng học.

Điểm nổi bật:

  • Chi phí mỗi giờ cho GPU V100 khoảng 0.40 đô la, tiết kiệm chi phí đáng kể
  • Thông qua việc chứng minh chồng chất, có thể tinh chỉnh mô hình cơ sở đã được huấn luyện trước.
  • Mô hình cơ bản sẽ Phi tập trung, sở hữu toàn cầu, cung cấp các chức năng bổ sung

Aethir

Aethir chuyên cung cấp GPU cấp doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu như AI, ML, trò chơi đám mây. Thông qua các container, chuyển tải khối lượng công việc từ địa phương lên đám mây, đạt được độ trễ thấp.

Điểm nổi bật:

  • Mở rộng dịch vụ điện thoại đám mây, hợp tác với APhone ra mắt điện thoại đám mây Phi tập trung
  • Thiết lập hợp tác rộng rãi với các ông lớn Web2 như NVIDIA, Super Micro
  • Hợp tác với nhiều công ty như CARV, Magic Eden trong lĩnh vực Web3

Mạng lưới Phala

Phala Network là lớp thực thi của giải pháp Web3 AI, giải quyết các vấn đề về quyền riêng tư thông qua môi trường thực thi đáng tin cậy (TEE). Điều này cho phép các đại lý AI được kiểm soát bởi các hợp đồng thông minh trên chuỗi.

Điểm nổi bật:

  • Đóng vai trò là giao thức đồng xử lý tính toán có thể xác minh, cho phép các tác nhân AI truy cập tài nguyên trên chuỗi.
  • Hợp đồng đại lý AI có thể được nhận qua Redpill để có được OpenAI và các LLM hàng đầu khác
  • Tương lai sẽ bao gồm các hệ thống chứng minh đa dạng như zk-proofs, MPC, FHE.
  • Kế hoạch hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán

So sánh dự án

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm nhấn kinh doanh | Kết xuất hình ảnh và AI | Điện toán đám mây, kết xuất và AI | AI | AI | AI, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Hai chiều | Hai chiều | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí làm việc | 0.5-5%/công việc | 20% USDC, 4% AKT | 2% USDC, 0.25% dự trữ | Phí thấp | 20%/buổi | Tương ứng với việc đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi tiếp theo | | Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Chất lượng đảm bảo | Cơ chế tranh chấp | - | - | Người xác thực và báo cáo | Kiểm tra nút | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |

AI và điểm giao nhau của DePIN

Tầm quan trọng

Tính khả dụng của cụm và tính toán song song

Khung tính toán phân tán thực hiện GPU cluster, cung cấp đào tạo hiệu quả hơn, tăng cường khả năng mở rộng. Để đào tạo các mô hình AI phức tạp cần khả năng tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1,8 triệu tỷ tham số, mất 3-4 tháng, sử dụng 128 cụm khoảng 25,000 GPU Nvidia A100.

Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã hợp tác với các dự án khác và đã triển khai hơn 3,800 cụm trong Q1. Render mặc dù không hỗ trợ cụm, nhưng sẽ phân giải một khung hình thành nhiều nút để xử lý đồng thời. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép các CPU worker được cụm hóa.

Khung tập trung rất quan trọng đối với mạng lưới quy trình làm việc AI, nhưng số lượng và loại GPU tập trung đáp ứng nhu cầu của các nhà phát triển AI lại là một vấn đề khác.

Dữ liệu riêng tư

Việc phát triển mô hình AI cần một lượng lớn tập dữ liệu, có thể liên quan đến thông tin nhạy cảm. Các phương pháp bảo mật dữ liệu rất quan trọng để bảo vệ quyền kiểm soát dữ liệu.

Hầu hết các dự án sử dụng một loại mã hóa để bảo vệ quyền riêng tư dữ liệu. Render sử dụng mã hóa và băm khi phát hành kết quả kết xuất. io.net và Gensyn áp dụng mã hóa dữ liệu. Akash sử dụng xác thực mTLS, chỉ cho phép các nhà cung cấp được chỉ định nhận dữ liệu.

io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng nhất (FHE), cho phép xử lý trực tiếp dữ liệu đã được mã hóa. Điều này bảo vệ quyền riêng tư tốt hơn so với các công nghệ mã hóa hiện có.

Phala Network giới thiệu môi trường thực thi đáng tin cậy ( TEE ), cách ly để ngăn chặn việc truy cập hoặc sửa đổi dữ liệu từ bên ngoài. Nó cũng kết hợp việc sử dụng zk-proofs, để tích hợp chương trình RiscZero zkVM.

Chứng nhận hoàn thành tính toán và kiểm tra chất lượng

Bảng chứng nhận hoàn thành tính toán cho thấy GPU thực sự được sử dụng cho dịch vụ cần thiết, kiểm tra chất lượng có lợi cho người dùng.

Gensyn và Aethir tạo ra chứng nhận hoàn thành công việc, io.net chứng minh hiệu suất GPU được tận dụng đầy đủ. Gensyn và Aethir thực hiện kiểm tra chất lượng. Gensyn sử dụng người xác thực để chạy lại một phần chứng nhận, người tố cáo như một kiểm tra bổ sung. Aethir sử dụng điểm kiểm tra để đánh giá chất lượng dịch vụ. Render đề xuất sử dụng quy trình giải quyết tranh chấp để xử lý các nút vấn đề. Phala tạo ra chứng nhận TEE, đảm bảo các đại lý AI thực hiện các thao tác cần thiết.

Dữ liệu thống kê phần cứng

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | H100 phí/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |

AI và điểm giao thoa của DePIN

Nhu cầu GPU hiệu suất cao

Mô hình AI có xu hướng sử dụng GPU hiệu suất cao như Nvidia A100 và H100 để đào tạo. Hiệu suất suy diễn của H100 gấp 4 lần A100, trở thành sự lựa chọn hàng đầu cho các công ty lớn trong việc đào tạo LLM.

Nhà cung cấp thị trường GPU Phi tập trung không chỉ cần cung cấp giá cả thấp hơn mà còn phải đáp ứng nhu cầu thực tế. Năm 2023, Nvidia đã giao hơn 500.000 chiếc H100 cho các công ty công nghệ lớn, khiến việc có được phần cứng tương đương trở nên khó khăn. Việc xem xét số lượng phần cứng có thể được đưa vào dự án với chi phí thấp là rất quan trọng.

Akash chỉ có hơn 150 H100 và A100, trong khi io.net và Aethir có hơn 2000. Việc huấn luyện LLM từ đầu thường cần từ 248 đến hơn 2000 cụm GPU, hai dự án sau phù hợp hơn cho tính toán mô hình lớn.

Hiện tại, chi phí dịch vụ GPU phi tập trung đã thấp hơn dịch vụ tập trung. Gensyn và Aethir tuyên bố rằng phí thuê phần cứng cấp A100 chưa đến 1 đô la mỗi giờ, nhưng vẫn cần được xác minh.

Mặc dù kết nối GPU cluster qua mạng có chi phí thấp, nhưng bộ nhớ bị hạn chế. NVLink hỗ trợ giao tiếp trực tiếp giữa các GPU, phù hợp với các LLMS có nhiều tham số và tập dữ liệu lớn.

Mặc dù vậy, mạng GPU Phi tập trung vẫn cung cấp khả năng và tính mở rộng mạnh mẽ cho tính toán phân tán, mở ra tình huống độc quyền cho việc xây dựng nhiều trường hợp AI và ML hơn.

AI và điểm giao nhau của DePIN

Cung cấp GPU/CPU tiêu dùng

CPU trong việc huấn luyện mô hình AI cũng rất quan trọng, được sử dụng cho việc tiền xử lý dữ liệu và quản lý bộ nhớ. GPU tiêu dùng có thể được sử dụng để tinh chỉnh mô hình đã được huấn luyện trước hoặc huấn luyện quy mô nhỏ.

Xem xét rằng hơn 85% người tiêu dùng GPU không sử dụng, các dự án như Render, Akash và io.net cũng có thể phục vụ thị trường này. Cung cấp những tùy chọn này cho phép họ phát triển vị trí thị trường độc đáo, tập trung vào tính toán mật độ lớn, render quy mô nhỏ phổ quát hoặc chế độ kết hợp.

Kết luận

Lĩnh vực DePIN AI vẫn còn khá mới, đối mặt với nhiều thách thức. Ví dụ, io.net đã từng bị cáo buộc làm giả số lượng GPU, sau đó đã giải quyết vấn đề bằng cách giới thiệu bằng chứng công việc.

Mặc dù vậy, số lượng nhiệm vụ và phần cứng được thực hiện trên mạng GPU phi tập trung đã tăng đáng kể, làm nổi bật nhu cầu gia tăng về các sản phẩm thay thế cho dịch vụ đám mây Web2. Sự gia tăng của các nhà cung cấp phần cứng cũng cho thấy nguồn cung trước đây chưa được khai thác đầy đủ. Điều này chứng tỏ độ phù hợp của sản phẩm trong mạng AI DePIN, giải quyết hiệu quả các thách thức về nhu cầu và nguồn cung.

Nhìn về tương lai, AI sẽ phát triển thành một thị trường hàng ngàn tỷ đô la mạnh mẽ, những mạng lưới GPU phi tập trung này sẽ cung cấp cho các nhà phát triển một giải pháp tính toán tiết kiệm chi phí. Bằng cách liên tục thu hẹp khoảng cách giữa nhu cầu và cung, những mạng lưới này sẽ đóng góp đáng kể vào bức tranh tương lai của AI và cơ sở hạ tầng tính toán.

AI và điểm giao nhau của DePIN

AI và DePIN giao điểm

AI và DePIN của giao điểm

AI và DePIN giao điểm

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 4
  • Chia sẻ
Bình luận
0/400
MEVHuntervip
· 13giờ trước
bán lẻ cũng có thể chia sẻ một phần
Xem bản gốcTrả lời0
LiquidationWatchervip
· 13giờ trước
Một cơ hội tốt.
Xem bản gốcTrả lời0
GateUser-4745f9cevip
· 13giờ trước
Giải quyết lo âu về tài nguyên.
Xem bản gốcTrả lời0
SandwichHuntervip
· 14giờ trước
Mua thẻ khai thác là thời điểm hợp lý
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)