AI y DePIN: el auge de las redes GPU descentralizadas
Recientemente, la inteligencia artificial y la Descentralización de Infraestructura Física de Redes ( DePIN ) se han convertido en temas candentes en el ámbito de Web3, alcanzando un valor de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo explorará la intersección entre ambos, investigando el desarrollo de los protocolos relacionados.
En la pila tecnológica de IA, la red DePIN empodera a la IA al proporcionar recursos computacionales. Debido a la escasez de GPU provocada por las grandes empresas tecnológicas, otros equipos que desarrollan modelos de IA tienen dificultades para obtener suficiente poder de cómputo de GPU. La práctica tradicional es elegir proveedores de servicios en la nube centralizados, pero esto requiere firmar contratos a largo plazo poco flexibles, lo que resulta ineficiente.
DePIN ofrece una alternativa más flexible y rentable, incentivando la contribución de recursos a través de recompensas en tokens. El DePIN en el ámbito de la IA integra recursos de GPU de propietarios individuales en centros de datos, proporcionando un suministro unificado a los usuarios. Esto no solo ofrece a los desarrolladores potencia de cálculo personalizada y bajo demanda, sino que también genera ingresos adicionales para los propietarios de GPU.
Actualmente hay múltiples redes DePIN de IA en el mercado, cada una con sus propias características. A continuación, exploraremos la función, los objetivos y los logros alcanzados por cada protocolo, para comprender mejor las diferencias entre ellos.
Resumen de la red DePIN de IA
Render es el pionero en redes de computación GPU P2P, inicialmente centrado en la renderización de contenido creativo, y luego ampliado a tareas de computación AI. Este proyecto fue fundado por la empresa de gráficos en la nube OTOY, ganadora del premio técnico Oscar, y su red GPU ha sido utilizada por grandes empresas como Paramount y PUBG. Render también colabora con Stability AI para integrar modelos de AI en el proceso de renderización de contenido 3D.
Akash se posiciona como una plataforma de "supernube" que soporta almacenamiento, GPU y computación CPU. Utiliza nodos de computación gestionados por plataformas de contenedores y Kubernetes, lo que permite desplegar software de manera fluida en diferentes entornos. En Akash se ejecutan aplicaciones como el chatbot LLM de Mistral AI y el modelo de generación de imágenes de texto de Stability AI.
io.net ofrece un clúster de GPU en la nube distribuido especializado en IA y aprendizaje automático. La empresa originalmente era una compañía de trading cuantitativo, pero se transformó en el negocio actual. Su IO-SDK es compatible con marcos como PyTorch y TensorFlow, y su arquitectura de múltiples capas puede escalar dinámicamente según la demanda. io.net también colabora con Render, Filecoin y otros para integrar recursos de GPU.
Gensyn se centra en redes GPU para cálculos de aprendizaje automático y aprendizaje profundo. A través de tecnologías como pruebas de aprendizaje y protocolos de localización precisa basados en gráficos, ha logrado un mecanismo de validación eficiente. Gensyn puede ajustar modelos base preentrenados para completar tareas más específicas.
Aethir se especializa en proporcionar GPU de nivel empresarial, principalmente utilizadas en áreas de computación intensiva como IA, aprendizaje automático y juegos en la nube. Los contenedores en su red actúan como puntos finales virtuales para aplicaciones en la nube, trasladando la carga de trabajo desde dispositivos locales a los contenedores, logrando una experiencia de baja latencia. Aethir también se ha expandido a servicios de teléfonos en la nube, estableciendo colaboraciones con varias empresas de Web2 y Web3.
Phala Network como la capa de ejecución de la solución Web3 AI, aborda los problemas de privacidad a través de un entorno de ejecución confiable (TEE). Permite que los agentes de IA sean controlados por contratos inteligentes en la cadena y planea soportar GPUs TEE como H100 en el futuro para mejorar la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Enfoque comercial | Renderizado gráfico y IA | Computación en la nube, renderizado e IA | IA | IA | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de IA en la cadena |
| Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución |
| Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidad de datos | Cifrado& hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE |
| Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% tarifa de reserva | Tarifas bajas | 20% por sesión | Proporcional al monto apostado |
| Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé |
| Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba TEE |
| Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota |
| GPU Clúster | No | Sí | Sí | Sí | Sí | No |
Importancia
Disponibilidad de clústeres y computación paralela
El marco de computación distribuida ha implementado un clúster de GPU, mejorando la eficiencia de entrenamiento y escalabilidad al tiempo que garantiza la precisión del modelo. Entrenar modelos de IA complejos requiere una gran capacidad de cómputo, que suele depender de la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un período de 3 a 4 meses utilizando aproximadamente 25,000 GPUs Nvidia A100.
La mayoría de los proyectos ahora han integrado clústeres para lograr computación paralela. io.net, en colaboración con otros proyectos, ha desplegado más de 3,800 clústeres en el primer trimestre de 2024. Render, aunque no soporta clústeres, funciona de manera similar, descomponiendo un solo fotograma para ser procesado simultáneamente en varios nodos. Phala actualmente solo soporta CPU, pero permite la agrupación de trabajadores de CPU.
Privacidad de datos
El desarrollo de modelos de IA requiere grandes conjuntos de datos, que pueden involucrar información sensible. Asegurar la privacidad de los datos es crucial para devolver el control de los datos a los proveedores. La mayoría de los proyectos adoptan alguna forma de cifrado de datos. io.net se ha asociado recientemente con Mind Network para lanzar la cifrado completamente homomórfico (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos. Phala Network ha introducido un entorno de ejecución confiable (TEE), que evita que procesos externos accedan o modifiquen los datos.
Prueba de cálculo completada y verificación de calidad
Debido a la amplia gama de servicios, desde renderizado hasta cálculos de IA, la calidad final puede no siempre cumplir con los estándares del usuario. Completar las pruebas y las verificaciones de calidad es beneficioso para los usuarios. Las pruebas generadas por Gensyn y Aethir indican que el trabajo se ha completado y se ha llevado a cabo una verificación de calidad. La prueba de io.net indica que el rendimiento de la GPU arrendada se está utilizando de manera óptima. Render sugiere utilizar un proceso de resolución de disputas para sancionar los nodos con problemas. Phala genera pruebas TEE para asegurar que los agentes de IA realicen las operaciones necesarias.
Los modelos de IA tienden a utilizar GPU de alto rendimiento como la A100 y H100 de Nvidia para su entrenamiento. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la opción preferida para las grandes empresas que entrenan LLM. Los proveedores de mercado de GPU descentralizadas necesitan ofrecer una cantidad suficiente de hardware de alto rendimiento para competir con los rivales de Web2. io.net y Aethir tienen más de 2000 unidades de H100 y A100 cada uno, siendo más adecuadas para el cálculo de modelos grandes.
El costo del servicio de GPU descentralizado es mucho más bajo que el de los servicios centralizados. Gensyn y Aethir afirman que se puede alquilar hardware equivalente a A100 por menos de 1 dólar por hora. Sin embargo, los clústeres de GPU conectados a la red pueden estar limitados en términos de memoria, lo que los hace menos adecuados para LLMS con un gran número de parámetros y conjuntos de datos en comparación con las GPU conectadas por NVLink.
A pesar de ello, la red GPU descentralizada sigue ofreciendo una poderosa capacidad de cómputo y escalabilidad para tareas de computación distribuida, abriendo oportunidades para construir más casos de uso de IA y ML.
Proporcionar GPU/CPU de nivel de consumo
Aunque la GPU es la unidad de procesamiento principal, la CPU también desempeña un papel importante en el entrenamiento de modelos de IA. Las GPU de consumo se pueden utilizar para tareas de menor escala, como ajustar modelos preentrenados o entrenar modelos pequeños en conjuntos de datos reducidos. Proyectos como Render, Akash y io.net también atienden este mercado, aprovechando los recursos de GPU de consumidores inactivos.
Conclusión
El campo de AI DePIN sigue siendo relativamente emergente y enfrenta desafíos. Sin embargo, la cantidad de tareas ejecutadas en estas redes y el hardware se ha incrementado significativamente, lo que resalta la creciente demanda de alternativas a los recursos de hardware de los proveedores de nube Web2. Esta tendencia demuestra la adecuación del producto al mercado de las redes AI DePIN y aborda de manera efectiva los desafíos tanto de demanda como de oferta.
De cara al futuro, se espera que la IA se desarrolle hasta convertirse en un mercado próspero de varios billones de dólares. Estas redes de GPU descentralizadas desempeñarán un papel clave al proporcionar alternativas de computación rentables para los desarrolladores, contribuyendo significativamente al futuro panorama de la IA y la infraestructura de computación.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
4 me gusta
Recompensa
4
3
Compartir
Comentar
0/400
MintMaster
· hace6h
La escala se ha reducido, 30 mil millones es solo el comienzo~
Ver originalesResponder0
RugDocDetective
· hace6h
Otro juguete que quiere tomar a la gente por tonta a los expertos.
Ver originalesResponder0
CryptoGoldmine
· hace6h
Los datos hablan: el rendimiento diario de GPU ha superado el 30% de ROI, adecuado para Construir una posición.
La intersección de AI y DePIN: el auge de las redes GPU descentralizadas que están reconfigurando un mercado de 30 mil millones de dólares.
AI y DePIN: el auge de las redes GPU descentralizadas
Recientemente, la inteligencia artificial y la Descentralización de Infraestructura Física de Redes ( DePIN ) se han convertido en temas candentes en el ámbito de Web3, alcanzando un valor de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo explorará la intersección entre ambos, investigando el desarrollo de los protocolos relacionados.
En la pila tecnológica de IA, la red DePIN empodera a la IA al proporcionar recursos computacionales. Debido a la escasez de GPU provocada por las grandes empresas tecnológicas, otros equipos que desarrollan modelos de IA tienen dificultades para obtener suficiente poder de cómputo de GPU. La práctica tradicional es elegir proveedores de servicios en la nube centralizados, pero esto requiere firmar contratos a largo plazo poco flexibles, lo que resulta ineficiente.
DePIN ofrece una alternativa más flexible y rentable, incentivando la contribución de recursos a través de recompensas en tokens. El DePIN en el ámbito de la IA integra recursos de GPU de propietarios individuales en centros de datos, proporcionando un suministro unificado a los usuarios. Esto no solo ofrece a los desarrolladores potencia de cálculo personalizada y bajo demanda, sino que también genera ingresos adicionales para los propietarios de GPU.
Actualmente hay múltiples redes DePIN de IA en el mercado, cada una con sus propias características. A continuación, exploraremos la función, los objetivos y los logros alcanzados por cada protocolo, para comprender mejor las diferencias entre ellos.
Resumen de la red DePIN de IA
Render es el pionero en redes de computación GPU P2P, inicialmente centrado en la renderización de contenido creativo, y luego ampliado a tareas de computación AI. Este proyecto fue fundado por la empresa de gráficos en la nube OTOY, ganadora del premio técnico Oscar, y su red GPU ha sido utilizada por grandes empresas como Paramount y PUBG. Render también colabora con Stability AI para integrar modelos de AI en el proceso de renderización de contenido 3D.
Akash se posiciona como una plataforma de "supernube" que soporta almacenamiento, GPU y computación CPU. Utiliza nodos de computación gestionados por plataformas de contenedores y Kubernetes, lo que permite desplegar software de manera fluida en diferentes entornos. En Akash se ejecutan aplicaciones como el chatbot LLM de Mistral AI y el modelo de generación de imágenes de texto de Stability AI.
io.net ofrece un clúster de GPU en la nube distribuido especializado en IA y aprendizaje automático. La empresa originalmente era una compañía de trading cuantitativo, pero se transformó en el negocio actual. Su IO-SDK es compatible con marcos como PyTorch y TensorFlow, y su arquitectura de múltiples capas puede escalar dinámicamente según la demanda. io.net también colabora con Render, Filecoin y otros para integrar recursos de GPU.
Gensyn se centra en redes GPU para cálculos de aprendizaje automático y aprendizaje profundo. A través de tecnologías como pruebas de aprendizaje y protocolos de localización precisa basados en gráficos, ha logrado un mecanismo de validación eficiente. Gensyn puede ajustar modelos base preentrenados para completar tareas más específicas.
Aethir se especializa en proporcionar GPU de nivel empresarial, principalmente utilizadas en áreas de computación intensiva como IA, aprendizaje automático y juegos en la nube. Los contenedores en su red actúan como puntos finales virtuales para aplicaciones en la nube, trasladando la carga de trabajo desde dispositivos locales a los contenedores, logrando una experiencia de baja latencia. Aethir también se ha expandido a servicios de teléfonos en la nube, estableciendo colaboraciones con varias empresas de Web2 y Web3.
Phala Network como la capa de ejecución de la solución Web3 AI, aborda los problemas de privacidad a través de un entorno de ejecución confiable (TEE). Permite que los agentes de IA sean controlados por contratos inteligentes en la cadena y planea soportar GPUs TEE como H100 en el futuro para mejorar la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque comercial | Renderizado gráfico y IA | Computación en la nube, renderizado e IA | IA | IA | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de IA en la cadena | | Tipo de tarea de IA | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución | | Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Cifrado& hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% tarifa de reserva | Tarifas bajas | 20% por sesión | Proporcional al monto apostado | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé | | Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota | | GPU Clúster | No | Sí | Sí | Sí | Sí | No |
Importancia
Disponibilidad de clústeres y computación paralela
El marco de computación distribuida ha implementado un clúster de GPU, mejorando la eficiencia de entrenamiento y escalabilidad al tiempo que garantiza la precisión del modelo. Entrenar modelos de IA complejos requiere una gran capacidad de cómputo, que suele depender de la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un período de 3 a 4 meses utilizando aproximadamente 25,000 GPUs Nvidia A100.
La mayoría de los proyectos ahora han integrado clústeres para lograr computación paralela. io.net, en colaboración con otros proyectos, ha desplegado más de 3,800 clústeres en el primer trimestre de 2024. Render, aunque no soporta clústeres, funciona de manera similar, descomponiendo un solo fotograma para ser procesado simultáneamente en varios nodos. Phala actualmente solo soporta CPU, pero permite la agrupación de trabajadores de CPU.
Privacidad de datos
El desarrollo de modelos de IA requiere grandes conjuntos de datos, que pueden involucrar información sensible. Asegurar la privacidad de los datos es crucial para devolver el control de los datos a los proveedores. La mayoría de los proyectos adoptan alguna forma de cifrado de datos. io.net se ha asociado recientemente con Mind Network para lanzar la cifrado completamente homomórfico (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos. Phala Network ha introducido un entorno de ejecución confiable (TEE), que evita que procesos externos accedan o modifiquen los datos.
Prueba de cálculo completada y verificación de calidad
Debido a la amplia gama de servicios, desde renderizado hasta cálculos de IA, la calidad final puede no siempre cumplir con los estándares del usuario. Completar las pruebas y las verificaciones de calidad es beneficioso para los usuarios. Las pruebas generadas por Gensyn y Aethir indican que el trabajo se ha completado y se ha llevado a cabo una verificación de calidad. La prueba de io.net indica que el rendimiento de la GPU arrendada se está utilizando de manera óptima. Render sugiere utilizar un proceso de resolución de disputas para sancionar los nodos con problemas. Phala genera pruebas TEE para asegurar que los agentes de IA realicen las operaciones necesarias.
Estadísticas de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ( estimado ) | $0.33 ( estimado ) | - |
Requisitos de GPU de alto rendimiento
Los modelos de IA tienden a utilizar GPU de alto rendimiento como la A100 y H100 de Nvidia para su entrenamiento. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, convirtiéndose en la opción preferida para las grandes empresas que entrenan LLM. Los proveedores de mercado de GPU descentralizadas necesitan ofrecer una cantidad suficiente de hardware de alto rendimiento para competir con los rivales de Web2. io.net y Aethir tienen más de 2000 unidades de H100 y A100 cada uno, siendo más adecuadas para el cálculo de modelos grandes.
El costo del servicio de GPU descentralizado es mucho más bajo que el de los servicios centralizados. Gensyn y Aethir afirman que se puede alquilar hardware equivalente a A100 por menos de 1 dólar por hora. Sin embargo, los clústeres de GPU conectados a la red pueden estar limitados en términos de memoria, lo que los hace menos adecuados para LLMS con un gran número de parámetros y conjuntos de datos en comparación con las GPU conectadas por NVLink.
A pesar de ello, la red GPU descentralizada sigue ofreciendo una poderosa capacidad de cómputo y escalabilidad para tareas de computación distribuida, abriendo oportunidades para construir más casos de uso de IA y ML.
Proporcionar GPU/CPU de nivel de consumo
Aunque la GPU es la unidad de procesamiento principal, la CPU también desempeña un papel importante en el entrenamiento de modelos de IA. Las GPU de consumo se pueden utilizar para tareas de menor escala, como ajustar modelos preentrenados o entrenar modelos pequeños en conjuntos de datos reducidos. Proyectos como Render, Akash y io.net también atienden este mercado, aprovechando los recursos de GPU de consumidores inactivos.
Conclusión
El campo de AI DePIN sigue siendo relativamente emergente y enfrenta desafíos. Sin embargo, la cantidad de tareas ejecutadas en estas redes y el hardware se ha incrementado significativamente, lo que resalta la creciente demanda de alternativas a los recursos de hardware de los proveedores de nube Web2. Esta tendencia demuestra la adecuación del producto al mercado de las redes AI DePIN y aborda de manera efectiva los desafíos tanto de demanda como de oferta.
De cara al futuro, se espera que la IA se desarrolle hasta convertirse en un mercado próspero de varios billones de dólares. Estas redes de GPU descentralizadas desempeñarán un papel clave al proporcionar alternativas de computación rentables para los desarrolladores, contribuyendo significativamente al futuro panorama de la IA y la infraestructura de computación.