# AI与DePIN的交汇:去中心化GPU网络的崛起近期,人工智能和去中心化物理基础设施网络(DePIN)成为Web3领域的热门话题,市值分别达到300亿美元和230亿美元。本文将探讨两者的交集,研究相关协议的发展。在AI技术栈中,DePIN网络通过提供计算资源为AI赋能。由于大型科技公司导致GPU短缺,其他开发AI模型的团队难以获得足够的GPU算力。传统做法是选择中心化云服务商,但需签署不灵活的长期合约,效率低下。DePIN提供了更灵活、更具成本效益的替代方案,通过代币奖励激励资源贡献。AI领域的DePIN将GPU资源从个人所有者整合到数据中心,为用户提供统一的供给。这不仅为开发者提供定制化和按需使用的算力,还为GPU所有者创造额外收入。目前市场上有多个AI DePIN网络,各有特色。接下来我们将探讨每个协议的作用、目标以及已取得的成就,从而深入了解它们之间的差异。## AI DePIN网络概述**Render** 是P2P GPU计算网络的先驱,最初专注于内容创作渲染,后来扩展到AI计算任务。该项目由获得奥斯卡技术奖的云图形公司OTOY创立,其GPU网络已被派拉蒙、PUBG等大公司使用。Render还与Stability AI等合作,将AI模型与3D内容渲染流程整合。**Akash** 定位为支持存储、GPU和CPU计算的"超级云"平台。它利用容器平台和Kubernetes管理的计算节点,可在不同环境中无缝部署软件。Akash上运行着Mistral AI的LLM聊天机器人、Stability AI的文本生成图像模型等应用。**io.net** 提供专门用于AI和机器学习的分布式GPU云集群。该公司原为量化交易公司,后转型为现有业务。其IO-SDK兼容PyTorch和TensorFlow等框架,多层架构可根据需求动态扩展。io.net还与Render、Filecoin等合作整合GPU资源。**Gensyn** 专注于机器学习和深度学习计算的GPU网络。它通过学习证明、基于图的精确定位协议等技术,实现了高效的验证机制。Gensyn可对预训练的基础模型进行微调,完成更具体的任务。**Aethir** 专门提供企业级GPU,主要用于AI、机器学习、云游戏等计算密集型领域。其网络中的容器充当云应用的虚拟端点,将工作负载从本地设备转移到容器,实现低延迟体验。Aethir还扩展到云手机服务,与多家Web2和Web3公司建立了合作。**Phala Network** 作为Web3 AI解决方案的执行层,通过可信执行环境(TEE)设计处理隐私问题。它使AI代理能够由链上智能合约控制,并计划未来支持H100等TEE GPU以提升计算能力。## 项目比较| | Render | Akash | io.net | Gensyn | Aethir | Phala ||--------|-------------|------------------|---------------------|---------|---------------|----------|| 硬件 | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPU | GPU | CPU || 业务重点 | 图形渲染和AI | 云计算、渲染和AI | AI | AI | 人工智能、云游戏和电信 | 链上 AI 执行 || AI任务类型 | 推理 | 两者均可 | 两者均可 | 训练 | 训练 | 执行 || 工作定价 | 基于表现的定价 | 反向拍卖 | 市场定价 | 市场定价 | 招标系统 | 权益计算 || 区块链 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot || 数据隐私 | 加密\&散列 | mTLS 身份验证 | 数据加密 | 安全映射 | 加密 | TEE || 工作费用 | 每项工作 0.5-5% | 20% USDC, 4% AKT | 2% USDC,0.25% 准备金费用 | 费用低廉 | 每个session 20% | 与质押金额成比例 || 安全 | 渲染证明 | 权益证明 | 计算证明 | 权益证明 | 渲染能力证明 | 继承自中继链 || 完成证明 | - | - | 时间锁证明 | 学习证明 | 渲染工作证明 | TEE 证明 || 质量保证 | 争议 | - | - | 核实者和举报人 | 检查器节点 | 远程证明 || GPU 集群 | 否 | 是 | 是 | 是 | 是 | 否 |### 重要性**集群和并行计算的可用性**分布式计算框架实现了GPU集群,在保证模型准确性的同时提高了训练效率和可扩展性。训练复杂AI模型需要强大的计算能力,通常依赖分布式计算。例如,OpenAI的GPT-4模型拥有超过1.8万亿个参数,在3-4个月内使用约25,000个Nvidia A100 GPU进行训练。大多数项目现已整合集群实现并行计算。io.net与其他项目合作,已在24年第一季度部署超过3,800个集群。Render虽不支持集群,但其工作原理类似,将单个帧分解到多个节点同时处理。Phala目前仅支持CPU,但允许CPU工作器集群化。**数据隐私**AI模型开发需要大量数据集,可能涉及敏感信息。确保数据隐私对于将数据控制权交还给提供方至关重要。大多数项目都采用某种形式的数据加密。io.net最近与Mind Network合作推出完全同态加密(FHE),允许在不解密的情况下处理加密数据。Phala Network引入可信执行环境(TEE),防止外部进程访问或修改数据。**计算完成证明和质量检查**由于服务范围广泛,从渲染到AI计算,最终质量可能不总符合用户标准。完成证明和质量检查对用户有益。Gensyn和Aethir生成证明表明工作已完成,并进行质量检查。io.net的证明表明租用GPU性能得到充分利用。Render建议使用争议解决流程,对存在问题的节点进行处罚。Phala生成TEE证明,确保AI代理执行所需操作。## 硬件统计数据| | Render | Akash | io.net | Gensyn | Aethir | Phala ||-------------|--------|-------|--------|------------|------------|--------|| GPU数量 | 5600 | 384 | 38177 | - | 40000+ | - || CPU数量 | 114 | 14672 | 5433 | - | - | 30000+ || H100/A100数量 | - | 157 | 2330 | - | 2000+ | - || H100费用/小时 | - | $1.46 | $1.19 | - | - | - || A100费用/小时 | - | $1.37 | $1.50 | $0.55 (预计) | $0.33 (预计) | - |### 高性能GPU的要求AI模型训练倾向使用Nvidia的A100和H100等高性能GPU。H100的推理性能比A100快4倍,成为大型公司训练LLM的首选。去中心化GPU市场提供商需要提供足够数量的高性能硬件才能与Web2竞争对手抗衡。io.net和Aethir各拥有2000多个H100和A100单元,更适合大型模型计算。去中心化GPU服务的成本已比中心化服务低得多。Gensyn和Aethir宣称能以每小时不到1美元的价格租用相当于A100的硬件。然而,网络连接的GPU集群在内存方面可能受限,不如NVLink连接的GPU适合具有大量参数和数据集的LLMS。尽管如此,去中心化GPU网络仍为分布式计算任务提供强大的计算能力和可扩展性,为构建更多AI和ML用例打开了机会。### 提供消费级GPU/CPU虽然GPU是主要处理单元,但CPU在AI模型训练中也发挥重要作用。消费级GPU可用于较小规模的任务,如微调预训练模型或在小数据集上训练小型模型。Render、Akash和io.net等项目也服务于这一市场,利用闲置的消费者GPU资源。## 结论AI DePIN领域仍相对新兴,面临挑战。然而,这些网络上执行的任务和硬件数量显著增加,凸显了对Web2云提供商硬件资源替代品的需求增长。这一趋势证明了AI DePIN网络的产品市场契合度,有效解决了需求和供应方面的挑战。展望未来,AI有望发展成为一个蓬勃发展的数万亿美元市场。这些去中心化GPU网络将在为开发者提供经济高效的计算替代方案方面发挥关键作用,为AI和计算基础设施的未来格局做出重大贡献。
AI与DePIN的交汇:去中心化GPU网络崛起 重塑300亿美元市场
AI与DePIN的交汇:去中心化GPU网络的崛起
近期,人工智能和去中心化物理基础设施网络(DePIN)成为Web3领域的热门话题,市值分别达到300亿美元和230亿美元。本文将探讨两者的交集,研究相关协议的发展。
在AI技术栈中,DePIN网络通过提供计算资源为AI赋能。由于大型科技公司导致GPU短缺,其他开发AI模型的团队难以获得足够的GPU算力。传统做法是选择中心化云服务商,但需签署不灵活的长期合约,效率低下。
DePIN提供了更灵活、更具成本效益的替代方案,通过代币奖励激励资源贡献。AI领域的DePIN将GPU资源从个人所有者整合到数据中心,为用户提供统一的供给。这不仅为开发者提供定制化和按需使用的算力,还为GPU所有者创造额外收入。
目前市场上有多个AI DePIN网络,各有特色。接下来我们将探讨每个协议的作用、目标以及已取得的成就,从而深入了解它们之间的差异。
AI DePIN网络概述
Render 是P2P GPU计算网络的先驱,最初专注于内容创作渲染,后来扩展到AI计算任务。该项目由获得奥斯卡技术奖的云图形公司OTOY创立,其GPU网络已被派拉蒙、PUBG等大公司使用。Render还与Stability AI等合作,将AI模型与3D内容渲染流程整合。
Akash 定位为支持存储、GPU和CPU计算的"超级云"平台。它利用容器平台和Kubernetes管理的计算节点,可在不同环境中无缝部署软件。Akash上运行着Mistral AI的LLM聊天机器人、Stability AI的文本生成图像模型等应用。
io.net 提供专门用于AI和机器学习的分布式GPU云集群。该公司原为量化交易公司,后转型为现有业务。其IO-SDK兼容PyTorch和TensorFlow等框架,多层架构可根据需求动态扩展。io.net还与Render、Filecoin等合作整合GPU资源。
Gensyn 专注于机器学习和深度学习计算的GPU网络。它通过学习证明、基于图的精确定位协议等技术,实现了高效的验证机制。Gensyn可对预训练的基础模型进行微调,完成更具体的任务。
Aethir 专门提供企业级GPU,主要用于AI、机器学习、云游戏等计算密集型领域。其网络中的容器充当云应用的虚拟端点,将工作负载从本地设备转移到容器,实现低延迟体验。Aethir还扩展到云手机服务,与多家Web2和Web3公司建立了合作。
Phala Network 作为Web3 AI解决方案的执行层,通过可信执行环境(TEE)设计处理隐私问题。它使AI代理能够由链上智能合约控制,并计划未来支持H100等TEE GPU以提升计算能力。
项目比较
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | 硬件 | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | 业务重点 | 图形渲染和AI | 云计算、渲染和AI | AI | AI | 人工智能、云游戏和电信 | 链上 AI 执行 | | AI任务类型 | 推理 | 两者均可 | 两者均可 | 训练 | 训练 | 执行 | | 工作定价 | 基于表现的定价 | 反向拍卖 | 市场定价 | 市场定价 | 招标系统 | 权益计算 | | 区块链 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | 数据隐私 | 加密&散列 | mTLS 身份验证 | 数据加密 | 安全映射 | 加密 | TEE | | 工作费用 | 每项工作 0.5-5% | 20% USDC, 4% AKT | 2% USDC,0.25% 准备金费用 | 费用低廉 | 每个session 20% | 与质押金额成比例 | | 安全 | 渲染证明 | 权益证明 | 计算证明 | 权益证明 | 渲染能力证明 | 继承自中继链 | | 完成证明 | - | - | 时间锁证明 | 学习证明 | 渲染工作证明 | TEE 证明 | | 质量保证 | 争议 | - | - | 核实者和举报人 | 检查器节点 | 远程证明 | | GPU 集群 | 否 | 是 | 是 | 是 | 是 | 否 |
重要性
集群和并行计算的可用性
分布式计算框架实现了GPU集群,在保证模型准确性的同时提高了训练效率和可扩展性。训练复杂AI模型需要强大的计算能力,通常依赖分布式计算。例如,OpenAI的GPT-4模型拥有超过1.8万亿个参数,在3-4个月内使用约25,000个Nvidia A100 GPU进行训练。
大多数项目现已整合集群实现并行计算。io.net与其他项目合作,已在24年第一季度部署超过3,800个集群。Render虽不支持集群,但其工作原理类似,将单个帧分解到多个节点同时处理。Phala目前仅支持CPU,但允许CPU工作器集群化。
数据隐私
AI模型开发需要大量数据集,可能涉及敏感信息。确保数据隐私对于将数据控制权交还给提供方至关重要。大多数项目都采用某种形式的数据加密。io.net最近与Mind Network合作推出完全同态加密(FHE),允许在不解密的情况下处理加密数据。Phala Network引入可信执行环境(TEE),防止外部进程访问或修改数据。
计算完成证明和质量检查
由于服务范围广泛,从渲染到AI计算,最终质量可能不总符合用户标准。完成证明和质量检查对用户有益。Gensyn和Aethir生成证明表明工作已完成,并进行质量检查。io.net的证明表明租用GPU性能得到充分利用。Render建议使用争议解决流程,对存在问题的节点进行处罚。Phala生成TEE证明,确保AI代理执行所需操作。
硬件统计数据
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU数量 | 5600 | 384 | 38177 | - | 40000+ | - | | CPU数量 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100数量 | - | 157 | 2330 | - | 2000+ | - | | H100费用/小时 | - | $1.46 | $1.19 | - | - | - | | A100费用/小时 | - | $1.37 | $1.50 | $0.55 (预计) | $0.33 (预计) | - |
高性能GPU的要求
AI模型训练倾向使用Nvidia的A100和H100等高性能GPU。H100的推理性能比A100快4倍,成为大型公司训练LLM的首选。去中心化GPU市场提供商需要提供足够数量的高性能硬件才能与Web2竞争对手抗衡。io.net和Aethir各拥有2000多个H100和A100单元,更适合大型模型计算。
去中心化GPU服务的成本已比中心化服务低得多。Gensyn和Aethir宣称能以每小时不到1美元的价格租用相当于A100的硬件。然而,网络连接的GPU集群在内存方面可能受限,不如NVLink连接的GPU适合具有大量参数和数据集的LLMS。
尽管如此,去中心化GPU网络仍为分布式计算任务提供强大的计算能力和可扩展性,为构建更多AI和ML用例打开了机会。
提供消费级GPU/CPU
虽然GPU是主要处理单元,但CPU在AI模型训练中也发挥重要作用。消费级GPU可用于较小规模的任务,如微调预训练模型或在小数据集上训练小型模型。Render、Akash和io.net等项目也服务于这一市场,利用闲置的消费者GPU资源。
结论
AI DePIN领域仍相对新兴,面临挑战。然而,这些网络上执行的任务和硬件数量显著增加,凸显了对Web2云提供商硬件资源替代品的需求增长。这一趋势证明了AI DePIN网络的产品市场契合度,有效解决了需求和供应方面的挑战。
展望未来,AI有望发展成为一个蓬勃发展的数万亿美元市场。这些去中心化GPU网络将在为开发者提供经济高效的计算替代方案方面发挥关键作用,为AI和计算基础设施的未来格局做出重大贡献。