AI và sự giao thoa của DePIN: sự trỗi dậy của mạng GPU phi tập trung
Gần đây, trí tuệ nhân tạo và Phi tập trung cơ sở hạ tầng vật lý mạng (DePIN) đã trở thành chủ đề nóng trong lĩnh vực Web3, với vốn hóa thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa giữa hai lĩnh vực, nghiên cứu sự phát triển của các giao thức liên quan.
Trong hệ sinh thái công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để thúc đẩy AI. Do các công ty công nghệ lớn gây ra tình trạng thiếu hụt GPU, các đội ngũ khác phát triển mô hình AI gặp khó khăn trong việc có đủ sức mạnh tính toán GPU. Cách làm truyền thống là chọn các nhà cung cấp dịch vụ đám mây tập trung, nhưng cần ký hợp đồng dài hạn không linh hoạt, dẫn đến hiệu quả thấp.
DePIN cung cấp một giải pháp thay thế linh hoạt hơn và tiết kiệm chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên bằng phần thưởng token. DePIN trong lĩnh vực AI tích hợp tài nguyên GPU từ các chủ sở hữu cá nhân vào trung tâm dữ liệu, cung cấp nguồn cung thống nhất cho người dùng. Điều này không chỉ mang lại cho các nhà phát triển khả năng tùy chỉnh và sử dụng tính toán theo nhu cầu, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.
Hiện nay trên thị trường có nhiều mạng DePIN AI, mỗi mạng có những đặc điểm riêng. Tiếp theo, chúng ta sẽ khám phá vai trò, mục tiêu và những thành tựu đã đạt được của mỗi giao thức, từ đó hiểu sâu hơn về sự khác biệt giữa chúng.
Tổng quan về mạng DePIN AI
Render là người tiên phong trong mạng tính toán GPU P2P, ban đầu tập trung vào việc tạo nội dung và sau đó mở rộng sang các nhiệm vụ tính toán AI. Dự án này được thành lập bởi công ty đồ họa đám mây OTOY, đơn vị đã giành giải thưởng kỹ thuật Oscar, và mạng GPU của họ đã được sử dụng bởi các công ty lớn như Paramount, PUBG. Render cũng hợp tác với Stability AI để tích hợp các mô hình AI vào quy trình tạo nội dung 3D.
Akash được định vị là nền tảng "đám mây siêu" hỗ trợ lưu trữ, tính toán GPU và CPU. Nó tận dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, có thể triển khai phần mềm một cách liền mạch trong các môi trường khác nhau. Trên Akash, đang chạy các ứng dụng như chatbot LLM của Mistral AI, mô hình tạo hình ảnh bằng văn bản của Stability AI.
io.net cung cấp cụm đám mây GPU phân tán chuyên dụng cho AI và học máy. Công ty trước đây là một công ty giao dịch định lượng, sau đó đã chuyển đổi sang kinh doanh hiện tại. IO-SDK của họ tương thích với các framework như PyTorch và TensorFlow, kiến trúc nhiều lớp có thể mở rộng linh hoạt theo nhu cầu. io.net cũng hợp tác với Render, Filecoin và các đối tác khác để tích hợp tài nguyên GPU.
Gensyn tập trung vào mạng GPU cho tính toán học máy và học sâu. Nó đạt được cơ chế xác minh hiệu quả thông qua các công nghệ như chứng minh học, giao thức định vị chính xác dựa trên đồ thị, v.v. Gensyn có thể tinh chỉnh các mô hình cơ bản đã được huấn luyện trước để hoàn thành các nhiệm vụ cụ thể hơn.
Aethir chuyên cung cấp GPU cấp doanh nghiệp, chủ yếu được sử dụng trong các lĩnh vực tính toán đòi hỏi cao như AI, học máy, trò chơi điện toán đám mây. Các container trong mạng của nó đóng vai trò như các điểm cuối ảo của ứng dụng đám mây, chuyển tải khối lượng công việc từ thiết bị tại chỗ sang container, tạo ra trải nghiệm độ trễ thấp. Aethir cũng mở rộng sang dịch vụ điện thoại đám mây, thiết lập hợp tác với nhiều công ty Web2 và Web3.
Phala Network là lớp thực thi của giải pháp Web3 AI, giải quyết các vấn đề về quyền riêng tư thông qua môi trường thực thi đáng tin cậy (TEE). Nó cho phép các đại lý AI được điều khiển bởi hợp đồng thông minh trên chuỗi, và dự kiến sẽ hỗ trợ các GPU TEE như H100 trong tương lai để nâng cao khả năng tính toán.
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Trọng tâm kinh doanh | Đồ họa và AI | Điện toán đám mây, đồ họa và AI | AI | AI | Trí tuệ nhân tạo, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi |
| Loại nhiệm vụ AI | Suy diễn | Cả hai đều có thể | Cả hai đều có thể | Đào tạo | Đào tạo | Thực hiện |
| Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống thầu | Tính toán quyền lợi |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Quyền riêng tư dữ liệu | Mã hóa& băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE |
| Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỷ lệ với số tiền đặt cọc |
| An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian |
| Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE |
| Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người tố cáo | Node kiểm tra | Chứng minh từ xa |
| Cụm GPU | Không | Có | Có | Có | Có | Không |
tầm quan trọng
Tính khả dụng của cụm và tính toán song song
Khung tính toán phân tán đã triển khai cụm GPU, nâng cao hiệu quả đào tạo và khả năng mở rộng trong khi đảm bảo độ chính xác của mô hình. Việc đào tạo các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1.8 triệu tỷ tham số, được đào tạo trong khoảng 3-4 tháng với khoảng 25,000 GPU Nvidia A100.
Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã hợp tác với các dự án khác, đã triển khai hơn 3.800 cụm trong quý đầu tiên của năm 24. Render mặc dù không hỗ trợ cụm, nhưng nguyên lý hoạt động của nó tương tự, phân giải một khung hình thành nhiều nút để xử lý đồng thời. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép tập hợp các bộ xử lý CPU.
Dữ liệu riêng tư
Phát triển mô hình AI cần một lượng lớn tập dữ liệu, có thể liên quan đến thông tin nhạy cảm. Đảm bảo quyền riêng tư dữ liệu là vô cùng quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp. Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó. io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng hình (FHE), cho phép xử lý dữ liệu mã hóa mà không cần giải mã. Phala Network đã giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu.
Tính toán hoàn thành chứng minh và kiểm tra chất lượng
Do dịch vụ rộng rãi, từ việc xử lý đến tính toán AI, chất lượng cuối cùng có thể không luôn đáp ứng tiêu chuẩn của người dùng. Việc hoàn thành chứng nhận và kiểm tra chất lượng có lợi cho người dùng. Chứng nhận của Gensyn và Aethir cho thấy công việc đã hoàn thành và tiến hành kiểm tra chất lượng. Chứng nhận của io.net cho thấy hiệu suất GPU được thuê đã được sử dụng đầy đủ. Render đề xuất sử dụng quy trình giải quyết tranh chấp, xử phạt các nút có vấn đề. Phala tạo chứng nhận TEE, đảm bảo các tác nhân AI thực hiện các thao tác cần thiết.
Mô hình AI có xu hướng sử dụng GPU hiệu suất cao như A100 và H100 của Nvidia để đào tạo. Hiệu suất suy diễn của H100 nhanh hơn A100 gấp 4 lần, trở thành lựa chọn hàng đầu cho các công ty lớn trong việc đào tạo LLM. Các nhà cung cấp thị trường GPU Phi tập trung cần cung cấp đủ số lượng phần cứng hiệu suất cao để cạnh tranh với các đối thủ Web2. io.net và Aethir mỗi bên có hơn 2000 đơn vị H100 và A100, phù hợp hơn cho tính toán mô hình lớn.
Chi phí dịch vụ GPU phi tập trung đã thấp hơn nhiều so với dịch vụ tập trung. Gensyn và Aethir tuyên bố có thể cho thuê phần cứng tương đương A100 với giá dưới 1 đô la mỗi giờ. Tuy nhiên, các cụm GPU kết nối mạng có thể bị hạn chế về bộ nhớ, không phù hợp bằng GPU kết nối NVLink cho các LLMS có nhiều tham số và tập dữ liệu.
Dù vậy, mạng GPU phi tập trung vẫn cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho các nhiệm vụ tính toán phân tán, mở ra cơ hội để xây dựng nhiều trường hợp sử dụng AI và ML hơn.
Cung cấp GPU/CPU tiêu dùng
Mặc dù GPU là đơn vị xử lý chính, nhưng CPU cũng đóng vai trò quan trọng trong việc huấn luyện mô hình AI. GPU tiêu dùng có thể được sử dụng cho các nhiệm vụ quy mô nhỏ hơn, chẳng hạn như tinh chỉnh mô hình đã được huấn luyện trước hoặc huấn luyện mô hình nhỏ trên tập dữ liệu nhỏ. Các dự án như Render, Akash và io.net cũng phục vụ cho thị trường này, tận dụng tài nguyên GPU tiêu dùng nhàn rỗi.
Kết luận
Lĩnh vực DePIN AI vẫn còn tương đối mới mẻ và đối mặt với những thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng này đã tăng đáng kể, điều này làm nổi bật nhu cầu ngày càng tăng về các sản phẩm thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Xu hướng này chứng minh độ phù hợp của thị trường sản phẩm của mạng DePIN AI, giải quyết hiệu quả các thách thức về nhu cầu và cung.
Nhìn về tương lai, AI có khả năng phát triển thành một thị trường hàng nghìn tỷ đô la đang bùng nổ. Những mạng GPU phi tập trung này sẽ đóng vai trò quan trọng trong việc cung cấp các giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển, góp phần đáng kể vào bối cảnh tương lai của AI và cơ sở hạ tầng tính toán.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
5 thích
Phần thưởng
5
4
Chia sẻ
Bình luận
0/400
ContractFreelancer
· 4giờ trước
Thật là một điều thú vị, lại là một lĩnh vực kiếm tiền khác.
Xem bản gốcTrả lời0
MintMaster
· 12giờ trước
Cấu trúc nhỏ, 300 tỷ chỉ là bắt đầu~
Xem bản gốcTrả lời0
RugDocDetective
· 12giờ trước
Một thứ nữa muốn chơi đùa với mọi người đồ ngốc.
Xem bản gốcTrả lời0
CryptoGoldmine
· 12giờ trước
Dữ liệu cho thấy ROI trung bình hàng ngày của GPU đã vượt quá 30%, phù hợp để Tạo vị thế.
Sự giao thoa giữa AI và DePIN: Mạng GPU phi tập trung nổi lên, tái định hình thị trường 30 tỷ đô la.
AI và sự giao thoa của DePIN: sự trỗi dậy của mạng GPU phi tập trung
Gần đây, trí tuệ nhân tạo và Phi tập trung cơ sở hạ tầng vật lý mạng (DePIN) đã trở thành chủ đề nóng trong lĩnh vực Web3, với vốn hóa thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa giữa hai lĩnh vực, nghiên cứu sự phát triển của các giao thức liên quan.
Trong hệ sinh thái công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để thúc đẩy AI. Do các công ty công nghệ lớn gây ra tình trạng thiếu hụt GPU, các đội ngũ khác phát triển mô hình AI gặp khó khăn trong việc có đủ sức mạnh tính toán GPU. Cách làm truyền thống là chọn các nhà cung cấp dịch vụ đám mây tập trung, nhưng cần ký hợp đồng dài hạn không linh hoạt, dẫn đến hiệu quả thấp.
DePIN cung cấp một giải pháp thay thế linh hoạt hơn và tiết kiệm chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên bằng phần thưởng token. DePIN trong lĩnh vực AI tích hợp tài nguyên GPU từ các chủ sở hữu cá nhân vào trung tâm dữ liệu, cung cấp nguồn cung thống nhất cho người dùng. Điều này không chỉ mang lại cho các nhà phát triển khả năng tùy chỉnh và sử dụng tính toán theo nhu cầu, mà còn tạo ra thu nhập bổ sung cho các chủ sở hữu GPU.
Hiện nay trên thị trường có nhiều mạng DePIN AI, mỗi mạng có những đặc điểm riêng. Tiếp theo, chúng ta sẽ khám phá vai trò, mục tiêu và những thành tựu đã đạt được của mỗi giao thức, từ đó hiểu sâu hơn về sự khác biệt giữa chúng.
Tổng quan về mạng DePIN AI
Render là người tiên phong trong mạng tính toán GPU P2P, ban đầu tập trung vào việc tạo nội dung và sau đó mở rộng sang các nhiệm vụ tính toán AI. Dự án này được thành lập bởi công ty đồ họa đám mây OTOY, đơn vị đã giành giải thưởng kỹ thuật Oscar, và mạng GPU của họ đã được sử dụng bởi các công ty lớn như Paramount, PUBG. Render cũng hợp tác với Stability AI để tích hợp các mô hình AI vào quy trình tạo nội dung 3D.
Akash được định vị là nền tảng "đám mây siêu" hỗ trợ lưu trữ, tính toán GPU và CPU. Nó tận dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, có thể triển khai phần mềm một cách liền mạch trong các môi trường khác nhau. Trên Akash, đang chạy các ứng dụng như chatbot LLM của Mistral AI, mô hình tạo hình ảnh bằng văn bản của Stability AI.
io.net cung cấp cụm đám mây GPU phân tán chuyên dụng cho AI và học máy. Công ty trước đây là một công ty giao dịch định lượng, sau đó đã chuyển đổi sang kinh doanh hiện tại. IO-SDK của họ tương thích với các framework như PyTorch và TensorFlow, kiến trúc nhiều lớp có thể mở rộng linh hoạt theo nhu cầu. io.net cũng hợp tác với Render, Filecoin và các đối tác khác để tích hợp tài nguyên GPU.
Gensyn tập trung vào mạng GPU cho tính toán học máy và học sâu. Nó đạt được cơ chế xác minh hiệu quả thông qua các công nghệ như chứng minh học, giao thức định vị chính xác dựa trên đồ thị, v.v. Gensyn có thể tinh chỉnh các mô hình cơ bản đã được huấn luyện trước để hoàn thành các nhiệm vụ cụ thể hơn.
Aethir chuyên cung cấp GPU cấp doanh nghiệp, chủ yếu được sử dụng trong các lĩnh vực tính toán đòi hỏi cao như AI, học máy, trò chơi điện toán đám mây. Các container trong mạng của nó đóng vai trò như các điểm cuối ảo của ứng dụng đám mây, chuyển tải khối lượng công việc từ thiết bị tại chỗ sang container, tạo ra trải nghiệm độ trễ thấp. Aethir cũng mở rộng sang dịch vụ điện thoại đám mây, thiết lập hợp tác với nhiều công ty Web2 và Web3.
Phala Network là lớp thực thi của giải pháp Web3 AI, giải quyết các vấn đề về quyền riêng tư thông qua môi trường thực thi đáng tin cậy (TEE). Nó cho phép các đại lý AI được điều khiển bởi hợp đồng thông minh trên chuỗi, và dự kiến sẽ hỗ trợ các GPU TEE như H100 trong tương lai để nâng cao khả năng tính toán.
So sánh dự án
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Trọng tâm kinh doanh | Đồ họa và AI | Điện toán đám mây, đồ họa và AI | AI | AI | Trí tuệ nhân tạo, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Cả hai đều có thể | Cả hai đều có thể | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống thầu | Tính toán quyền lợi | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa& băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỷ lệ với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Chứng minh hoàn thành | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người tố cáo | Node kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |
tầm quan trọng
Tính khả dụng của cụm và tính toán song song
Khung tính toán phân tán đã triển khai cụm GPU, nâng cao hiệu quả đào tạo và khả năng mở rộng trong khi đảm bảo độ chính xác của mô hình. Việc đào tạo các mô hình AI phức tạp cần sức mạnh tính toán mạnh mẽ, thường dựa vào tính toán phân tán. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1.8 triệu tỷ tham số, được đào tạo trong khoảng 3-4 tháng với khoảng 25,000 GPU Nvidia A100.
Hầu hết các dự án hiện đã tích hợp cụm để thực hiện tính toán song song. io.net đã hợp tác với các dự án khác, đã triển khai hơn 3.800 cụm trong quý đầu tiên của năm 24. Render mặc dù không hỗ trợ cụm, nhưng nguyên lý hoạt động của nó tương tự, phân giải một khung hình thành nhiều nút để xử lý đồng thời. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép tập hợp các bộ xử lý CPU.
Dữ liệu riêng tư
Phát triển mô hình AI cần một lượng lớn tập dữ liệu, có thể liên quan đến thông tin nhạy cảm. Đảm bảo quyền riêng tư dữ liệu là vô cùng quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp. Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó. io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng hình (FHE), cho phép xử lý dữ liệu mã hóa mà không cần giải mã. Phala Network đã giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu.
Tính toán hoàn thành chứng minh và kiểm tra chất lượng
Do dịch vụ rộng rãi, từ việc xử lý đến tính toán AI, chất lượng cuối cùng có thể không luôn đáp ứng tiêu chuẩn của người dùng. Việc hoàn thành chứng nhận và kiểm tra chất lượng có lợi cho người dùng. Chứng nhận của Gensyn và Aethir cho thấy công việc đã hoàn thành và tiến hành kiểm tra chất lượng. Chứng nhận của io.net cho thấy hiệu suất GPU được thuê đã được sử dụng đầy đủ. Render đề xuất sử dụng quy trình giải quyết tranh chấp, xử phạt các nút có vấn đề. Phala tạo chứng nhận TEE, đảm bảo các tác nhân AI thực hiện các thao tác cần thiết.
Dữ liệu thống kê phần cứng
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |
yêu cầu GPU hiệu suất cao
Mô hình AI có xu hướng sử dụng GPU hiệu suất cao như A100 và H100 của Nvidia để đào tạo. Hiệu suất suy diễn của H100 nhanh hơn A100 gấp 4 lần, trở thành lựa chọn hàng đầu cho các công ty lớn trong việc đào tạo LLM. Các nhà cung cấp thị trường GPU Phi tập trung cần cung cấp đủ số lượng phần cứng hiệu suất cao để cạnh tranh với các đối thủ Web2. io.net và Aethir mỗi bên có hơn 2000 đơn vị H100 và A100, phù hợp hơn cho tính toán mô hình lớn.
Chi phí dịch vụ GPU phi tập trung đã thấp hơn nhiều so với dịch vụ tập trung. Gensyn và Aethir tuyên bố có thể cho thuê phần cứng tương đương A100 với giá dưới 1 đô la mỗi giờ. Tuy nhiên, các cụm GPU kết nối mạng có thể bị hạn chế về bộ nhớ, không phù hợp bằng GPU kết nối NVLink cho các LLMS có nhiều tham số và tập dữ liệu.
Dù vậy, mạng GPU phi tập trung vẫn cung cấp khả năng tính toán mạnh mẽ và khả năng mở rộng cho các nhiệm vụ tính toán phân tán, mở ra cơ hội để xây dựng nhiều trường hợp sử dụng AI và ML hơn.
Cung cấp GPU/CPU tiêu dùng
Mặc dù GPU là đơn vị xử lý chính, nhưng CPU cũng đóng vai trò quan trọng trong việc huấn luyện mô hình AI. GPU tiêu dùng có thể được sử dụng cho các nhiệm vụ quy mô nhỏ hơn, chẳng hạn như tinh chỉnh mô hình đã được huấn luyện trước hoặc huấn luyện mô hình nhỏ trên tập dữ liệu nhỏ. Các dự án như Render, Akash và io.net cũng phục vụ cho thị trường này, tận dụng tài nguyên GPU tiêu dùng nhàn rỗi.
Kết luận
Lĩnh vực DePIN AI vẫn còn tương đối mới mẻ và đối mặt với những thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng này đã tăng đáng kể, điều này làm nổi bật nhu cầu ngày càng tăng về các sản phẩm thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Xu hướng này chứng minh độ phù hợp của thị trường sản phẩm của mạng DePIN AI, giải quyết hiệu quả các thách thức về nhu cầu và cung.
Nhìn về tương lai, AI có khả năng phát triển thành một thị trường hàng nghìn tỷ đô la đang bùng nổ. Những mạng GPU phi tập trung này sẽ đóng vai trò quan trọng trong việc cung cấp các giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển, góp phần đáng kể vào bối cảnh tương lai của AI và cơ sở hạ tầng tính toán.