Puntos de intersección entre AI y DePIN: Explorando el desarrollo de redes GPU descentralizadas
Desde 2023, la IA y la Descentralización de Infraestructura Física (DePIN) han recibido mucha atención en el ámbito de Web3, con capitalizaciones de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo se centrará en el área de intersección de ambos, explorando el desarrollo de los protocolos relacionados.
En la pila de tecnología de IA, la red DePIN empodera a la IA al proporcionar recursos de computación. Debido al desarrollo de grandes empresas tecnológicas que ha llevado a la escasez de GPU, otros desarrolladores encuentran difícil obtener suficientes recursos de GPU para construir sus propios modelos de IA. Tradicionalmente, los desarrolladores optarían por proveedores de servicios en la nube centralizados, pero esto a menudo requiere firmar contratos a largo plazo poco flexibles y es menos eficiente.
DePIN ofrece una alternativa más flexible y rentable. A través de recompensas en tokens, incentiva la contribución de recursos, externalizando los recursos de GPU de los propietarios individuales a los centros de datos, formando una oferta unificada para los usuarios que necesitan hardware. Esto no solo proporciona a los desarrolladores capacidad de computación personalizable y bajo demanda, sino que también ofrece a los propietarios de GPU una fuente adicional de ingresos.
Ya hay múltiples redes DePIN de IA en el mercado, cada una con sus características. A continuación, exploraremos las características y objetivos de algunos proyectos principales, así como algunos de sus logros concretos.
Resumen de la red DePIN de IA
Render es un pionero en redes P2P que proporcionan capacidad de cálculo GPU, inicialmente centrado en la renderización de contenido, y luego expandió su alcance a tareas de cálculo de IA.
Características:
Fundada por la empresa de gráficos en la nube OTOY, con tecnología ganadora de un Oscar.
La red GPU ha sido utilizada por grandes empresas de la industria del entretenimiento, como Paramount Pictures, PUBG, etc.
Colaborar con Stability AI y Endeavor para integrar modelos de IA en flujos de trabajo de renderizado de contenido 3D.
Aprobar múltiples clientes de cálculo, integrar más GPU de redes DePIN
Akash se posiciona como un reemplazo de "supernube" que admite almacenamiento, computación GPU y CPU. Utilizando una plataforma de contenedores y nodos de computación gestionados por Kubernetes, se puede desplegar software de manera fluida en diferentes entornos y ejecutar cualquier aplicación nativa de la nube.
Características:
Tareas de cálculo generalizadas que van desde la computación general hasta la gestión de redes.
AkashML permite que su red GPU ejecute más de 15,000 modelos en Hugging Face
Ha custodiado algunas aplicaciones conocidas, como el chatbot del modelo LLM de Mistral AI, el modelo SDXL de Stability AI, entre otros.
Plataforma que apoya la construcción de metaverso, despliegue de IA y aprendizaje federado.
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, diseñados específicamente para casos de uso de IA y ML. Agrega recursos de GPU de centros de datos, mineros de criptomonedas y otras redes de Descentralización.
Características:
IO-SDK es compatible con frameworks como PyTorch y Tensorflow, y su arquitectura de múltiples capas se puede expandir dinámicamente según las necesidades.
Soporte para crear 3 tipos diferentes de clústeres, que se pueden iniciar en 2 minutos
Colaborar con múltiples redes DePIN como Render, Filecoin y Aethir, integrando recursos GPU.
Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. A través de un mecanismo de verificación innovador, mejora la eficiencia.
Características:
El costo por hora de un GPU equivalente a V100 es de aproximadamente 0.40 dólares, lo que representa un ahorro considerable.
A través de la pila de pruebas, se puede ajustar el modelo base preentrenado.
Estos modelos básicos serán Descentralización, de propiedad global.
Aethir está diseñado específicamente para GPU empresariales, enfocado en áreas de alta intensidad computacional, como IA, ML y juegos en la nube, entre otros. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones basadas en la nube.
Características:
Además de la IA y los juegos en la nube, también se ha expandido a los servicios de teléfonos en la nube, lanzando un teléfono inteligente en la nube descentralizado en colaboración con APhone.
Establecer una amplia colaboración con grandes empresas de Web2 como NVIDIA, Super Micro y HPE.
Colaboración con varios proyectos Web3 como CARV, Magic Eden
Phala Network como la capa de ejecución de la solución Web3 AI. Su blockchain es una solución de computación en la nube sin necesidad de confianza, que aborda los problemas de privacidad a través de un entorno de ejecución de confianza (TEE).
Características:
Actuar como un protocolo de coprocesador de cálculo verificable, permitiendo que los agentes de IA accedan a recursos en la cadena.
Los contratos de agente de IA se pueden acceder a través de Redpill a los principales modelos de lenguaje como OpenAI, Llama, etc.
El futuro incluirá sistemas de prueba múltiple como zk-proofs, cálculo multipartito y cifrado homomórfico completo.
En el futuro se soportarán otras GPU TEE como la H100, mejorando la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Enfoque empresarial | Renderización gráfica e IA | Computación en la nube, renderización e IA | IA | IA | IA, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena |
| Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución |
| Precio del trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidad de datos | Cifrado&Hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE |
| Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costos de reserva | Costos bajos | 20% por sesión | Proporcional a la cantidad apostada |
| Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena Intermedia |
| Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE |
| Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota |
| GPU Clúster | No | Sí | Sí | Sí | Sí | No |
Importancia
Disponibilidad de clústeres y computación paralela
El marco de cálculo distribuido implementó un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo, al mismo tiempo que mejora la escalabilidad. Entrenar modelos de IA complejos requiere una poderosa capacidad de cálculo, que a menudo depende de la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un periodo de 3-4 meses utilizando alrededor de 25,000 GPUs Nvidia A100 en 128 clústeres.
La mayoría de los proyectos clave ahora han integrado clústeres para lograr computación paralela. io.net ha colaborado con proyectos como Render, Filecoin y Aethir para incorporar más GPU en su red, y ha desplegado más de 3,800 clústeres en el primer trimestre de 2024. Aunque Render no soporta clústeres, su funcionamiento es similar, descomponiendo un solo cuadro en múltiples nodos para su procesamiento simultáneo. Phala actualmente solo soporta CPU, pero permite la agrupación de trabajadores de CPU.
Privacidad de datos
Desarrollar modelos de IA requiere el uso de grandes conjuntos de datos, los cuales pueden contener información sensible. Asegurar la privacidad de los datos es crucial para devolver el control de los datos a los proveedores de datos.
La mayoría de los proyectos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. Render utiliza cifrado y procesamiento de hash al publicar los resultados de renderización, io.net y Gensyn utilizan cifrado de datos, y Akash utiliza autenticación mTLS.
io.net recientemente colaboró con Mind Network para lanzar la encriptación completamente homomórfica (FHE), que permite procesar datos encriptados sin necesidad de desencriptarlos primero. Phala Network introdujo un entorno de ejecución confiable (TEE), que previene el acceso o la modificación de datos por procesos externos.
Prueba de cálculo completada y control de calidad
Debido a que las GPU proporcionadas por estos proyectos se pueden utilizar para una amplia gama de servicios, desde la renderización de gráficos hasta el cálculo de IA, es necesario completar los mecanismos de prueba y control de calidad.
Gensyn y Aethir generan pruebas después de completar los cálculos, la prueba de io.net indica que el rendimiento de la GPU alquilada se está utilizando adecuadamente. Gensyn y Aethir realizarán controles de calidad sobre los cálculos realizados. Render sugiere utilizar el proceso de resolución de disputas. Phala generará una prueba TEE después de completarse, asegurando que el agente de IA ejecute las operaciones necesarias en la cadena.
El entrenamiento de modelos de IA requiere GPU de máximo rendimiento, como las A100 y H100 de Nvidia. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la GPU preferida, especialmente para las grandes empresas que están entrenando su propio LLM.
Los proveedores de mercados de GPU Descentralización deben competir con sus pares de Web2, no solo ofreciendo precios más bajos, sino también satisfaciendo las necesidades reales del mercado. En 2023, Nvidia entregó más de 500,000 H100 a grandes empresas tecnológicas centralizadas, lo que hizo que obtener hardware equivalente fuera difícil.
io.net y Aethir cuentan con más de 2000 unidades H100 y A100 cada uno, lo que los hace más adecuados para el cálculo de modelos grandes. Según el tamaño del clúster requerido por los desarrolladores, actualmente el costo de estos servicios de GPU descentralizados es mucho más bajo que el de los servicios de GPU centralizados.
A pesar de que los clústeres de GPU conectados a la red tienen limitaciones en memoria, para los usuarios que requieren flexibilidad y la capacidad de distribuir cargas de trabajo a través de múltiples nodos, la red de GPU descentralizada aún puede ofrecer una potente capacidad de cálculo y escalabilidad para tareas de computación distribuida.
Proporcionar GPU/CPU de nivel de consumo
La CPU también desempeña un papel importante en el entrenamiento de modelos de IA, pudiendo utilizarse en múltiples etapas, desde el preprocesamiento de datos hasta la gestión de recursos de memoria. Las GPU de consumo se pueden utilizar para tareas menos intensivas, como el ajuste fino de modelos preentrenados o el entrenamiento de modelos a pequeña escala en conjuntos de datos pequeños.
Dado que más del 85% de los recursos de GPU de los consumidores están inactivos, proyectos como Render, Akash e io.net también pueden atender este mercado. Ofrecer estas opciones les permite desarrollar su propia posición en el mercado, enfocándose en computación intensiva a gran escala, renderizado a pequeña escala o una combinación de ambos.
Conclusión
El campo de AI DePIN sigue siendo relativamente emergente y enfrenta sus propios desafíos. Sin embargo, el número de tareas y hardware ejecutados en estas redes de GPU descentralizadas ha aumentado significativamente, destacando el crecimiento de la demanda de alternativas a los recursos de hardware de los proveedores de nube Web2. Al mismo tiempo, el aumento de proveedores de hardware también muestra un suministro que anteriormente no se había aprovechado plenamente. Esto demuestra aún más el ajuste del mercado de productos de la red AI DePIN, abordando eficazmente los desafíos tanto de demanda como de suministro.
Mirando hacia el futuro, se espera que la IA se desarrolle en un mercado en auge de billones de dólares. Estas redes de GPU descentralizadas jugarán un papel clave en proporcionar soluciones de computación rentables para los desarrolladores. Al cerrar continuamente la brecha entre la demanda y la oferta, estas redes harán una contribución significativa al futuro del paisaje de la IA y la infraestructura computacional.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
14 me gusta
Recompensa
14
7
Compartir
Comentar
0/400
LiquidationWatcher
· hace9h
Evidentemente, la GPU sigue siendo una victoria centralizada.
Ver originalesResponder0
MidnightSeller
· hace9h
Ah, esto... ¿va a haber un alcista de GPU otra vez?
Ver originalesResponder0
AirdropworkerZhang
· hace9h
Hablando en serio, ¿quién sigue haciendo AI? Ahora todos están enfocados en depin.
Ver originalesResponder0
AirdropHunterKing
· hace9h
Reducir pérdidas de los N airdrops que han sido tomados por tontos ya están en camino.
Ver originalesResponder0
CoconutWaterBoy
· hace9h
¿Escasez de GPU? Es como buscar un minero con un farol.
Ver originalesResponder0
Layer2Arbitrageur
· hace9h
*bosteza* solo otra ganancia de eficiencia de 300 puntos básicos... despiértame cuando alcancemos tasas de utilización de GPU de 10x
AI y el choque de DePIN: explorando el desarrollo de redes GPU descentralizadas
Puntos de intersección entre AI y DePIN: Explorando el desarrollo de redes GPU descentralizadas
Desde 2023, la IA y la Descentralización de Infraestructura Física (DePIN) han recibido mucha atención en el ámbito de Web3, con capitalizaciones de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo se centrará en el área de intersección de ambos, explorando el desarrollo de los protocolos relacionados.
En la pila de tecnología de IA, la red DePIN empodera a la IA al proporcionar recursos de computación. Debido al desarrollo de grandes empresas tecnológicas que ha llevado a la escasez de GPU, otros desarrolladores encuentran difícil obtener suficientes recursos de GPU para construir sus propios modelos de IA. Tradicionalmente, los desarrolladores optarían por proveedores de servicios en la nube centralizados, pero esto a menudo requiere firmar contratos a largo plazo poco flexibles y es menos eficiente.
DePIN ofrece una alternativa más flexible y rentable. A través de recompensas en tokens, incentiva la contribución de recursos, externalizando los recursos de GPU de los propietarios individuales a los centros de datos, formando una oferta unificada para los usuarios que necesitan hardware. Esto no solo proporciona a los desarrolladores capacidad de computación personalizable y bajo demanda, sino que también ofrece a los propietarios de GPU una fuente adicional de ingresos.
Ya hay múltiples redes DePIN de IA en el mercado, cada una con sus características. A continuación, exploraremos las características y objetivos de algunos proyectos principales, así como algunos de sus logros concretos.
Resumen de la red DePIN de IA
Render es un pionero en redes P2P que proporcionan capacidad de cálculo GPU, inicialmente centrado en la renderización de contenido, y luego expandió su alcance a tareas de cálculo de IA.
Características:
Akash se posiciona como un reemplazo de "supernube" que admite almacenamiento, computación GPU y CPU. Utilizando una plataforma de contenedores y nodos de computación gestionados por Kubernetes, se puede desplegar software de manera fluida en diferentes entornos y ejecutar cualquier aplicación nativa de la nube.
Características:
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, diseñados específicamente para casos de uso de IA y ML. Agrega recursos de GPU de centros de datos, mineros de criptomonedas y otras redes de Descentralización.
Características:
Gensyn ofrece capacidades de computación GPU centradas en el aprendizaje automático y el aprendizaje profundo. A través de un mecanismo de verificación innovador, mejora la eficiencia.
Características:
Aethir está diseñado específicamente para GPU empresariales, enfocado en áreas de alta intensidad computacional, como IA, ML y juegos en la nube, entre otros. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones basadas en la nube.
Características:
Phala Network como la capa de ejecución de la solución Web3 AI. Su blockchain es una solución de computación en la nube sin necesidad de confianza, que aborda los problemas de privacidad a través de un entorno de ejecución de confianza (TEE).
Características:
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque empresarial | Renderización gráfica e IA | Computación en la nube, renderización e IA | IA | IA | IA, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena | | Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución | | Precio del trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Cifrado&Hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costos de reserva | Costos bajos | 20% por sesión | Proporcional a la cantidad apostada | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena Intermedia | | Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota | | GPU Clúster | No | Sí | Sí | Sí | Sí | No |
Importancia
Disponibilidad de clústeres y computación paralela
El marco de cálculo distribuido implementó un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo, al mismo tiempo que mejora la escalabilidad. Entrenar modelos de IA complejos requiere una poderosa capacidad de cálculo, que a menudo depende de la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un periodo de 3-4 meses utilizando alrededor de 25,000 GPUs Nvidia A100 en 128 clústeres.
La mayoría de los proyectos clave ahora han integrado clústeres para lograr computación paralela. io.net ha colaborado con proyectos como Render, Filecoin y Aethir para incorporar más GPU en su red, y ha desplegado más de 3,800 clústeres en el primer trimestre de 2024. Aunque Render no soporta clústeres, su funcionamiento es similar, descomponiendo un solo cuadro en múltiples nodos para su procesamiento simultáneo. Phala actualmente solo soporta CPU, pero permite la agrupación de trabajadores de CPU.
Privacidad de datos
Desarrollar modelos de IA requiere el uso de grandes conjuntos de datos, los cuales pueden contener información sensible. Asegurar la privacidad de los datos es crucial para devolver el control de los datos a los proveedores de datos.
La mayoría de los proyectos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. Render utiliza cifrado y procesamiento de hash al publicar los resultados de renderización, io.net y Gensyn utilizan cifrado de datos, y Akash utiliza autenticación mTLS.
io.net recientemente colaboró con Mind Network para lanzar la encriptación completamente homomórfica (FHE), que permite procesar datos encriptados sin necesidad de desencriptarlos primero. Phala Network introdujo un entorno de ejecución confiable (TEE), que previene el acceso o la modificación de datos por procesos externos.
Prueba de cálculo completada y control de calidad
Debido a que las GPU proporcionadas por estos proyectos se pueden utilizar para una amplia gama de servicios, desde la renderización de gráficos hasta el cálculo de IA, es necesario completar los mecanismos de prueba y control de calidad.
Gensyn y Aethir generan pruebas después de completar los cálculos, la prueba de io.net indica que el rendimiento de la GPU alquilada se está utilizando adecuadamente. Gensyn y Aethir realizarán controles de calidad sobre los cálculos realizados. Render sugiere utilizar el proceso de resolución de disputas. Phala generará una prueba TEE después de completarse, asegurando que el agente de IA ejecute las operaciones necesarias en la cadena.
Datos estadísticos de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ( estimado ) | $0.33 ( estimado ) | - |
Requisitos de GPU de alto rendimiento
El entrenamiento de modelos de IA requiere GPU de máximo rendimiento, como las A100 y H100 de Nvidia. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la GPU preferida, especialmente para las grandes empresas que están entrenando su propio LLM.
Los proveedores de mercados de GPU Descentralización deben competir con sus pares de Web2, no solo ofreciendo precios más bajos, sino también satisfaciendo las necesidades reales del mercado. En 2023, Nvidia entregó más de 500,000 H100 a grandes empresas tecnológicas centralizadas, lo que hizo que obtener hardware equivalente fuera difícil.
io.net y Aethir cuentan con más de 2000 unidades H100 y A100 cada uno, lo que los hace más adecuados para el cálculo de modelos grandes. Según el tamaño del clúster requerido por los desarrolladores, actualmente el costo de estos servicios de GPU descentralizados es mucho más bajo que el de los servicios de GPU centralizados.
A pesar de que los clústeres de GPU conectados a la red tienen limitaciones en memoria, para los usuarios que requieren flexibilidad y la capacidad de distribuir cargas de trabajo a través de múltiples nodos, la red de GPU descentralizada aún puede ofrecer una potente capacidad de cálculo y escalabilidad para tareas de computación distribuida.
Proporcionar GPU/CPU de nivel de consumo
La CPU también desempeña un papel importante en el entrenamiento de modelos de IA, pudiendo utilizarse en múltiples etapas, desde el preprocesamiento de datos hasta la gestión de recursos de memoria. Las GPU de consumo se pueden utilizar para tareas menos intensivas, como el ajuste fino de modelos preentrenados o el entrenamiento de modelos a pequeña escala en conjuntos de datos pequeños.
Dado que más del 85% de los recursos de GPU de los consumidores están inactivos, proyectos como Render, Akash e io.net también pueden atender este mercado. Ofrecer estas opciones les permite desarrollar su propia posición en el mercado, enfocándose en computación intensiva a gran escala, renderizado a pequeña escala o una combinación de ambos.
Conclusión
El campo de AI DePIN sigue siendo relativamente emergente y enfrenta sus propios desafíos. Sin embargo, el número de tareas y hardware ejecutados en estas redes de GPU descentralizadas ha aumentado significativamente, destacando el crecimiento de la demanda de alternativas a los recursos de hardware de los proveedores de nube Web2. Al mismo tiempo, el aumento de proveedores de hardware también muestra un suministro que anteriormente no se había aprovechado plenamente. Esto demuestra aún más el ajuste del mercado de productos de la red AI DePIN, abordando eficazmente los desafíos tanto de demanda como de suministro.
Mirando hacia el futuro, se espera que la IA se desarrolle en un mercado en auge de billones de dólares. Estas redes de GPU descentralizadas jugarán un papel clave en proporcionar soluciones de computación rentables para los desarrolladores. Al cerrar continuamente la brecha entre la demanda y la oferta, estas redes harán una contribución significativa al futuro del paisaje de la IA y la infraestructura computacional.