AI ve DePIN'in Kesişimi: Merkeziyetsiz GPU Ağı'nın Yükselişi
Son zamanlarda AI ve DePIN, Web3 alanında popüler eğilimler haline geldi, piyasa değeri sırasıyla 30 milyar dolar ve 23 milyar dolara ulaştı. Bu makale, her ikisinin kesişim alanına odaklanacak ve ilgili protokollerin gelişimini inceleyecektir.
AI teknoloji yığını içinde, DePIN ağı, hesaplama kaynakları sağlayarak AI'yi güçlendirir. Büyük teknoloji şirketlerinin GPU kıtlığına neden olmasıyla birlikte, diğer geliştiricilerin AI model hesaplamaları için yeterli GPU'ya erişmesi zorlaşmıştır. Geleneksel yaklaşım, merkezi bulut hizmet sağlayıcılarını seçmektir, ancak bu, esnek olmayan uzun vadeli sözleşmeler imzalamayı gerektirir ve verimsizdir.
DePIN, token ödülleriyle kaynak katkılarını teşvik ederek daha esnek ve maliyet etkin bir alternatif sunar. AI alanındaki DePIN, bireysel GPU kaynaklarını veri merkezlerine entegre ederek kullanıcılara tek tip bir sağlayış sunar. Bu, geliştiricilere özelleştirilmiş talep üzerine hizmetler sunmanın yanı sıra, GPU sahiplerine ek gelir yaratır.
Piyasada çeşitli AI DePIN ağları bulunmaktadır, bu makalede her bir protokolün işlevi, hedefleri ve başarıları ile aralarındaki farklar analiz edilecektir.
AI DePIN Ağı Genel Görünümü
Render
Render, P2P GPU hesaplama ağının öncüsüdür, başlangıçta içerik oluşturma render'ına odaklanmış, daha sonra Stable Diffusion gibi araçların entegrasyonu ile AI hesaplama görevlerine genişlemiştir.
Öne Çıkanlar:
Oscar ödüllü teknoloji şirketi OTOY tarafından kuruldu
Paramount Pictures, PUBG gibi eğlence sektörü devleri GPU ağını kullanıyor.
Stability AI gibi ortaklıklar kurarak, AI modellerini 3D içerik renderleme iş akışına entegre etmek
Birden fazla hesaplama istemcisini onayla, daha fazla DePIN ağı GPU'sunu entegre et
Akash
Akash, AWS gibi geleneksel hizmet sağlayıcılarının yerini alacak şekilde, depolama, GPU ve CPU hesaplamalarını destekleyen "süper bulut" platformu olarak konumlandırılmaktadır. Konteyner platformu ve Kubernetes ile yönetilen hesaplama düğümleri sayesinde, herhangi bir bulut yerel uygulaması kesintisiz bir şekilde dağıtılabilir.
Öne Çıkanlar:
Genel hesaplamadan ağ barındırmaya yönelik geniş hesaplama görevleri
AkashML, Hugging Face üzerinde 15.000'den fazla model çalıştırılmasına olanak tanır.
Mistral AI'nin LLM sohbet robotu, Stability AI'nin SDXL gibi uygulamaları
Metaverse, AI dağıtımı ve federatif öğrenme platformu Supercloud'unu kullanıyor
io.net
io.net, AI ve ML senaryoları için özel olarak tasarlanmış dağıtık GPU bulut kümeleri sağlar. Veri merkezi, kripto madenciler gibi alanlardaki GPU kaynaklarını entegre eder.
Öne Çıkanlar:
IO-SDK, PyTorch gibi çerçevelerle uyumludur, çok katmanlı mimari ihtiyaçlara göre otomatik olarak genişleyebilir.
3 farklı türde küme oluşturmayı destekler, 2 dakika içinde başlatır
Render, Filecoin gibi projelerle daha fazla GPU kaynağı entegrasyonu sağlamak
Gensyn
Gensyn, makine öğrenimi ve derin öğrenmeye odaklanan GPU hesaplama yetenekleri sunar. Doğrulama verimliliğini artırmak için öğrenme kanıtı gibi mekanizmalar aracılığıyla.
Öne Çıkanlar:
V100 GPU saatlik maliyeti yaklaşık 0.40 dolar, maliyetleri büyük ölçüde düşürür.
Önceden eğitilmiş temel modeli ince ayar yapmak için kanıt yığınları ile
Temel model merkeziyetsizlik, küresel sahiplik sağlayacak, ek işlevler sunacaktır.
Aethir
Aethir, kurumsal düzeyde GPU'lar için özel olarak tasarlanmıştır ve AI, ML, bulut oyunları gibi hesaplama yoğun alanlara odaklanmaktadır. İş yüklerini yerel cihazlardan buluta taşımak için konteynerler kullanarak düşük gecikme süresi sağlar.
Öne çıkanlar:
Bulut telefon hizmetine genişleme, APHONE ile merkeziyetsiz bulut telefonu başlatma
NVIDIA, Super Micro gibi Web2 devleriyle geniş iş birlikleri kurmak
Web3 alanında CARV, Magic Eden gibi birçok firma ile işbirliği
Phala Network
Phala Network, Web3 AI çözümlerinin uygulama katmanı olarak, güvenilir yürütme ortamı (TEE) aracılığıyla gizlilik sorunlarını işler. AI ajanlarının zincir üstü akıllı sözleşmelerle kontrol edilmesini sağlar.
Öne Çıkanlar:
Doğrulanabilir hesaplama için yardımcı işlemci protokolü olarak işlev görerek, AI ajanlarının zincir üzerindeki kaynakları kullanabilmesini sağlar.
AI ajan sözleşmeleri Redpill aracılığıyla OpenAI gibi en iyi LLM'leri elde edebilir.
Gelecekte zk-proof, MPC, FHE gibi çoklu kanıt sistemleri dahil edilecektir.
H100 gibi TEE GPU'larını desteklemeyi planlıyor, hesaplama gücünü artıracak.
Proje Karşılaştırması
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|-------------------|---------------------|---------|---------------|----------|
| Donanım | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| İş Alanı | Grafik Renderleme ve AI | Bulut Bilişim, Renderleme ve AI | AI | AI | AI, Bulut Oyun ve Telekomünikasyon | Zincir Üstü AI Uygulaması |
| AI Görev Tipi | Çıkarım | İki Yönlü | İki Yönlü | Eğitim | Eğitim | Uygulama |
| Çalışma Fiyatlandırması | Performansa Dayalı | Ters İhale | Piyasa Fiyatlandırması | Piyasa Fiyatlandırması | İhale Sistemi | Hak Hesaplama |
| Blok zinciri | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Veri Gizliliği | Şifreleme&Hash | mTLS Kimlik Doğrulama | Veri Şifreleme | Güvenli Haritalama | Şifreleme | TEE |
| İş Ücreti | 0.5-5%/iş | 20% USDC, 4% AKT | 2% USDC, 0.25% rezerv | Düşük Ücret | 20%/oturum | Stake ile orantılı |
| Güvenlik | Render Kanıtı | Hak Sahibi Kanıtı | Hesaplama Kanıtı | Hak Sahibi Kanıtı | Render Kapasite Kanıtı | Ara Zincirden Miras Alır |
| Tamamlanmış Kanıt | - | - | Zaman Kilidi Kanıtı | Öğrenme Kanıtı | Render İş Kanıtı | TEE Kanıtı |
| Kalite Garantisi | İhtilaf Mekanizması | - | - | Doğrulayıcılar ve İhbarcılar | Kontrol Düğümleri | Uzaktan Kanıt |
| GPU Kümesi | Hayır | Evet | Evet | Evet | Evet | Hayır |
Önemi
Küme ve paralel hesaplamanın kullanılabilirliği
Dağıtık hesaplama çerçevesi GPU kümesi gerçekleştirir, daha verimli eğitim sağlar, ölçeklenebilirliği artırır. Karmaşık AI modellerinin eğitimi güçlü hesaplama gücü gerektirir, genellikle dağıtık hesaplamaya dayanır. Örneğin, OpenAI'nin GPT-4 modeli 1,8 trilyondan fazla parametreye sahiptir, 3-4 ay sürmektedir ve yaklaşık 25.000 Nvidia A100 GPU kullanan 128 küme ile çalışmaktadır.
Çoğu proje artık paralel hesaplama gerçekleştirmek için kümeleri entegre etti. io.net, diğer projelerle işbirliği yaparak Q1'de 3,800'den fazla küme dağıttı. Render kümeleri desteklemese de, tek bir kareyi birden fazla düğümde aynı anda işlemek için parçalara ayırır. Phala şu anda yalnızca CPU'yu destekliyor, ancak CPU işleyicilerinin merkeziyetsizleşmesine izin veriyor.
Küme çerçevesi, AI iş akışı ağları için önemlidir, ancak AI geliştiricilerinin ihtiyaçlarını karşılamak için gereken küme GPU sayısı ve türü başka bir sorundur.
Veri gizliliği
Yapay zeka modeli geliştirmek için büyük veri setlerine ihtiyaç vardır, bu da hassas bilgileri içerebilir. Veri gizliliği yöntemleri, veri kontrol hakkını korumak için hayati öneme sahiptir.
Çoğu proje, verilerin gizliliğini korumak için bir tür şifreleme kullanmaktadır. Render, render sonuçlarını yayınlarken şifreleme ve hash kullanır. io.net ve Gensyn, veri şifrelemesi kullanmaktadır. Akash, yalnızca belirli sağlayıcıların verilere erişmesine izin veren mTLS kimlik doğrulaması kullanmaktadır.
io.net son zamanlarda Mind Network ile işbirliği yaparak tamamen homomorfik şifreleme (FHE)'i piyasaya sürdü ve bu, şifreli verilerin doğrudan işlenmesine olanak tanıyor. Bu, mevcut şifreleme teknolojilerinden daha iyi bir gizlilik koruması sağlıyor.
Phala Network, güvenilir yürütme ortamı ( TEE )'ı tanıtarak, dış erişimi veya verilerin değiştirilmesini izole ederek önler. Ayrıca, RiscZero zkVM programını entegre etmek için zk-proofs kullanımıyla birleştirir.
Hesaplama Tamamlandı Kanıtı ve Kalite Kontrolü
Hesaplama tamamlama belgesi, GPU'nun gerçekten gerekli hizmetler için kullanıldığını gösteriyor, kalite kontrol kullanıcılar için faydalıdır.
Gensyn ve Aethir iş tamamlanma kanıtı oluşturur, io.net GPU performansının tam olarak kullanıldığını kanıtlar. Gensyn ve Aethir kalite kontrolü yapar. Gensyn, doğrulayıcılar kullanarak bazı kanıtları yeniden çalıştırır, ihbarcı ek bir kontrol olarak. Aethir, hizmet kalitesini değerlendirmek için kontrol noktalarını kullanır. Render, sorunlu düğümleri ele almak için ihtilaf çözüm sürecinin kullanılmasını önerir. Phala, AI ajanının gerekli işlemleri gerçekleştirmesini sağlamak için TEE kanıtı oluşturur.
AI model eğitimi, Nvidia A100 ve H100 gibi yüksek performanslı GPU'ları kullanma eğilimindedir. H100'ün çıkarım performansı A100'ün 4 katıdır ve büyük şirketlerin LLM eğitimi için tercih edilen seçenektir.
Merkeziyetsizlik GPU pazar sağlayıcılarının yalnızca daha düşük fiyatlar sunması değil, aynı zamanda gerçek ihtiyaçları da karşılaması gerekir. 2023 yılında Nvidia, büyük teknoloji şirketlerine 500.000'den fazla H100 teslim etti ve bu da eşdeğer donanıma ulaşmayı zorlaştırdı. Projelerin düşük maliyetle temin edilebilecek donanım miktarını dikkate almak önemlidir.
Akash'ın sadece 150'den fazla H100 ve A100'ü var, oysa io.net ve Aethir'in her birinde 2000'den fazla var. Sıfırdan önceden eğitilmiş LLM genellikle 248 ila 2000'den fazla GPU kümesi gerektirir, son iki proje büyük model hesaplamaları için daha uygundur.
Şu anda merkeziyetsizlik GPU hizmeti maliyetleri, merkezi hizmetlerden daha düşük. Gensyn ve Aethir, A100 sınıfı donanım için saatlik kiralama ücretinin 1 dolardan az olduğunu iddia ediyor, ancak bu hala doğrulanması gerekiyor.
Ağ bağlantılı GPU kümeleri ucuz olsa da, bellek kısıtlıdır. NVLink, GPU'lar arasında doğrudan iletişimi destekler ve çok sayıda parametreye ve büyük veri kümesine sahip LLMS'ler için uygundur.
Yine de, merkeziyetsiz GPU ağı dağıtık hesaplama için güçlü bir yetenek ve ölçeklenebilirlik sunarak daha fazla AI ve ML kullanım durumu oluşturmak için oligopol durumunu açmaktadır.
Tüketici sınıfı GPU/CPU sağlama
CPU, AI model eğitimi sırasında veri ön işleme ve bellek yönetimi için de oldukça önemlidir. Tüketici sınıfı GPU'lar, önceden eğitilmiş modellerin ince ayarını yapmak veya küçük ölçekli eğitim için kullanılabilir.
%85'ten fazla tüketicinin GPU'sunun boşta kalmasını göz önünde bulundurarak, Render, Akash ve io.net gibi projeler de bu pazara hizmet edebilir. Bu seçeneklerin sunulması, onların benzersiz bir pazar konumu geliştirmelerine olanak tanır ve büyük ölçekli yoğun hesaplama, genel küçük ölçekli render veya karma modlara odaklanmalarını sağlar.
Sonuç
AI DePIN alanı hala yenidir ve zorluklarla karşı karşıyadır. Örneğin, io.net GPU sayısını sahtecilikle suçlandı, ardından iş kanıtı getirerek sorunu çözdü.
Buna rağmen, merkeziyetsizlik GPU ağında gerçekleştirilen görevler ve donanım sayısı önemli ölçüde arttı ve bu da Web2 bulut hizmetleri için alternatiflere olan talebin arttığını gösteriyor. Donanım sağlayıcılarındaki artış, daha önce yeterince kullanılmayan bir arzı da ortaya koyuyor. Bu, AI DePIN ağının ürün pazar uyumunu kanıtlıyor ve talep ve arz zorluklarını etkili bir şekilde çözüyor.
Geleceğe baktığımızda, AI'nın büyük bir büyüklükte, trilyonlarca dolarlık bir pazara dönüşmesi bekleniyor. Bu merkeziyetsiz GPU ağları, geliştiricilere ekonomik olarak verimli bir hesaplama alternatifi sunacak. Sürekli olarak talep ve arz arasındaki boşluğu kapatarak, bu ağlar AI ve hesaplama altyapısının gelecekteki yapısına önemli katkılarda bulunacak.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI DePIN'in Yükselişi: Merkeziyetsiz GPU Ağı Hesaplama Altyapısını Yeniden Şekillendiriyor
AI ve DePIN'in Kesişimi: Merkeziyetsiz GPU Ağı'nın Yükselişi
Son zamanlarda AI ve DePIN, Web3 alanında popüler eğilimler haline geldi, piyasa değeri sırasıyla 30 milyar dolar ve 23 milyar dolara ulaştı. Bu makale, her ikisinin kesişim alanına odaklanacak ve ilgili protokollerin gelişimini inceleyecektir.
AI teknoloji yığını içinde, DePIN ağı, hesaplama kaynakları sağlayarak AI'yi güçlendirir. Büyük teknoloji şirketlerinin GPU kıtlığına neden olmasıyla birlikte, diğer geliştiricilerin AI model hesaplamaları için yeterli GPU'ya erişmesi zorlaşmıştır. Geleneksel yaklaşım, merkezi bulut hizmet sağlayıcılarını seçmektir, ancak bu, esnek olmayan uzun vadeli sözleşmeler imzalamayı gerektirir ve verimsizdir.
DePIN, token ödülleriyle kaynak katkılarını teşvik ederek daha esnek ve maliyet etkin bir alternatif sunar. AI alanındaki DePIN, bireysel GPU kaynaklarını veri merkezlerine entegre ederek kullanıcılara tek tip bir sağlayış sunar. Bu, geliştiricilere özelleştirilmiş talep üzerine hizmetler sunmanın yanı sıra, GPU sahiplerine ek gelir yaratır.
Piyasada çeşitli AI DePIN ağları bulunmaktadır, bu makalede her bir protokolün işlevi, hedefleri ve başarıları ile aralarındaki farklar analiz edilecektir.
AI DePIN Ağı Genel Görünümü
Render
Render, P2P GPU hesaplama ağının öncüsüdür, başlangıçta içerik oluşturma render'ına odaklanmış, daha sonra Stable Diffusion gibi araçların entegrasyonu ile AI hesaplama görevlerine genişlemiştir.
Öne Çıkanlar:
Akash
Akash, AWS gibi geleneksel hizmet sağlayıcılarının yerini alacak şekilde, depolama, GPU ve CPU hesaplamalarını destekleyen "süper bulut" platformu olarak konumlandırılmaktadır. Konteyner platformu ve Kubernetes ile yönetilen hesaplama düğümleri sayesinde, herhangi bir bulut yerel uygulaması kesintisiz bir şekilde dağıtılabilir.
Öne Çıkanlar:
io.net
io.net, AI ve ML senaryoları için özel olarak tasarlanmış dağıtık GPU bulut kümeleri sağlar. Veri merkezi, kripto madenciler gibi alanlardaki GPU kaynaklarını entegre eder.
Öne Çıkanlar:
Gensyn
Gensyn, makine öğrenimi ve derin öğrenmeye odaklanan GPU hesaplama yetenekleri sunar. Doğrulama verimliliğini artırmak için öğrenme kanıtı gibi mekanizmalar aracılığıyla.
Öne Çıkanlar:
Aethir
Aethir, kurumsal düzeyde GPU'lar için özel olarak tasarlanmıştır ve AI, ML, bulut oyunları gibi hesaplama yoğun alanlara odaklanmaktadır. İş yüklerini yerel cihazlardan buluta taşımak için konteynerler kullanarak düşük gecikme süresi sağlar.
Öne çıkanlar:
Phala Network
Phala Network, Web3 AI çözümlerinin uygulama katmanı olarak, güvenilir yürütme ortamı (TEE) aracılığıyla gizlilik sorunlarını işler. AI ajanlarının zincir üstü akıllı sözleşmelerle kontrol edilmesini sağlar.
Öne Çıkanlar:
Proje Karşılaştırması
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | Donanım | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | İş Alanı | Grafik Renderleme ve AI | Bulut Bilişim, Renderleme ve AI | AI | AI | AI, Bulut Oyun ve Telekomünikasyon | Zincir Üstü AI Uygulaması | | AI Görev Tipi | Çıkarım | İki Yönlü | İki Yönlü | Eğitim | Eğitim | Uygulama | | Çalışma Fiyatlandırması | Performansa Dayalı | Ters İhale | Piyasa Fiyatlandırması | Piyasa Fiyatlandırması | İhale Sistemi | Hak Hesaplama | | Blok zinciri | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Veri Gizliliği | Şifreleme&Hash | mTLS Kimlik Doğrulama | Veri Şifreleme | Güvenli Haritalama | Şifreleme | TEE | | İş Ücreti | 0.5-5%/iş | 20% USDC, 4% AKT | 2% USDC, 0.25% rezerv | Düşük Ücret | 20%/oturum | Stake ile orantılı | | Güvenlik | Render Kanıtı | Hak Sahibi Kanıtı | Hesaplama Kanıtı | Hak Sahibi Kanıtı | Render Kapasite Kanıtı | Ara Zincirden Miras Alır | | Tamamlanmış Kanıt | - | - | Zaman Kilidi Kanıtı | Öğrenme Kanıtı | Render İş Kanıtı | TEE Kanıtı | | Kalite Garantisi | İhtilaf Mekanizması | - | - | Doğrulayıcılar ve İhbarcılar | Kontrol Düğümleri | Uzaktan Kanıt | | GPU Kümesi | Hayır | Evet | Evet | Evet | Evet | Hayır |
Önemi
Küme ve paralel hesaplamanın kullanılabilirliği
Dağıtık hesaplama çerçevesi GPU kümesi gerçekleştirir, daha verimli eğitim sağlar, ölçeklenebilirliği artırır. Karmaşık AI modellerinin eğitimi güçlü hesaplama gücü gerektirir, genellikle dağıtık hesaplamaya dayanır. Örneğin, OpenAI'nin GPT-4 modeli 1,8 trilyondan fazla parametreye sahiptir, 3-4 ay sürmektedir ve yaklaşık 25.000 Nvidia A100 GPU kullanan 128 küme ile çalışmaktadır.
Çoğu proje artık paralel hesaplama gerçekleştirmek için kümeleri entegre etti. io.net, diğer projelerle işbirliği yaparak Q1'de 3,800'den fazla küme dağıttı. Render kümeleri desteklemese de, tek bir kareyi birden fazla düğümde aynı anda işlemek için parçalara ayırır. Phala şu anda yalnızca CPU'yu destekliyor, ancak CPU işleyicilerinin merkeziyetsizleşmesine izin veriyor.
Küme çerçevesi, AI iş akışı ağları için önemlidir, ancak AI geliştiricilerinin ihtiyaçlarını karşılamak için gereken küme GPU sayısı ve türü başka bir sorundur.
Veri gizliliği
Yapay zeka modeli geliştirmek için büyük veri setlerine ihtiyaç vardır, bu da hassas bilgileri içerebilir. Veri gizliliği yöntemleri, veri kontrol hakkını korumak için hayati öneme sahiptir.
Çoğu proje, verilerin gizliliğini korumak için bir tür şifreleme kullanmaktadır. Render, render sonuçlarını yayınlarken şifreleme ve hash kullanır. io.net ve Gensyn, veri şifrelemesi kullanmaktadır. Akash, yalnızca belirli sağlayıcıların verilere erişmesine izin veren mTLS kimlik doğrulaması kullanmaktadır.
io.net son zamanlarda Mind Network ile işbirliği yaparak tamamen homomorfik şifreleme (FHE)'i piyasaya sürdü ve bu, şifreli verilerin doğrudan işlenmesine olanak tanıyor. Bu, mevcut şifreleme teknolojilerinden daha iyi bir gizlilik koruması sağlıyor.
Phala Network, güvenilir yürütme ortamı ( TEE )'ı tanıtarak, dış erişimi veya verilerin değiştirilmesini izole ederek önler. Ayrıca, RiscZero zkVM programını entegre etmek için zk-proofs kullanımıyla birleştirir.
Hesaplama Tamamlandı Kanıtı ve Kalite Kontrolü
Hesaplama tamamlama belgesi, GPU'nun gerçekten gerekli hizmetler için kullanıldığını gösteriyor, kalite kontrol kullanıcılar için faydalıdır.
Gensyn ve Aethir iş tamamlanma kanıtı oluşturur, io.net GPU performansının tam olarak kullanıldığını kanıtlar. Gensyn ve Aethir kalite kontrolü yapar. Gensyn, doğrulayıcılar kullanarak bazı kanıtları yeniden çalıştırır, ihbarcı ek bir kontrol olarak. Aethir, hizmet kalitesini değerlendirmek için kontrol noktalarını kullanır. Render, sorunlu düğümleri ele almak için ihtilaf çözüm sürecinin kullanılmasını önerir. Phala, AI ajanının gerekli işlemleri gerçekleştirmesini sağlamak için TEE kanıtı oluşturur.
Donanım istatistik verileri
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU sayısı | 5600 | 384 | 38177 | - | 40000+ | - | | CPU Sayısı | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 Adet | - | 157 | 2330 | - | 2000+ | - | | H100 Ücreti/Saat | - | $1.46 | $1.19 | - | - | - | | A100 Ücreti/Saat | - | $1.37 | $1.50 | $0.55 ( tahmin edilen ) | $0.33 ( tahmin edilen ) | - |
Yüksek performanslı GPU talebi
AI model eğitimi, Nvidia A100 ve H100 gibi yüksek performanslı GPU'ları kullanma eğilimindedir. H100'ün çıkarım performansı A100'ün 4 katıdır ve büyük şirketlerin LLM eğitimi için tercih edilen seçenektir.
Merkeziyetsizlik GPU pazar sağlayıcılarının yalnızca daha düşük fiyatlar sunması değil, aynı zamanda gerçek ihtiyaçları da karşılaması gerekir. 2023 yılında Nvidia, büyük teknoloji şirketlerine 500.000'den fazla H100 teslim etti ve bu da eşdeğer donanıma ulaşmayı zorlaştırdı. Projelerin düşük maliyetle temin edilebilecek donanım miktarını dikkate almak önemlidir.
Akash'ın sadece 150'den fazla H100 ve A100'ü var, oysa io.net ve Aethir'in her birinde 2000'den fazla var. Sıfırdan önceden eğitilmiş LLM genellikle 248 ila 2000'den fazla GPU kümesi gerektirir, son iki proje büyük model hesaplamaları için daha uygundur.
Şu anda merkeziyetsizlik GPU hizmeti maliyetleri, merkezi hizmetlerden daha düşük. Gensyn ve Aethir, A100 sınıfı donanım için saatlik kiralama ücretinin 1 dolardan az olduğunu iddia ediyor, ancak bu hala doğrulanması gerekiyor.
Ağ bağlantılı GPU kümeleri ucuz olsa da, bellek kısıtlıdır. NVLink, GPU'lar arasında doğrudan iletişimi destekler ve çok sayıda parametreye ve büyük veri kümesine sahip LLMS'ler için uygundur.
Yine de, merkeziyetsiz GPU ağı dağıtık hesaplama için güçlü bir yetenek ve ölçeklenebilirlik sunarak daha fazla AI ve ML kullanım durumu oluşturmak için oligopol durumunu açmaktadır.
Tüketici sınıfı GPU/CPU sağlama
CPU, AI model eğitimi sırasında veri ön işleme ve bellek yönetimi için de oldukça önemlidir. Tüketici sınıfı GPU'lar, önceden eğitilmiş modellerin ince ayarını yapmak veya küçük ölçekli eğitim için kullanılabilir.
%85'ten fazla tüketicinin GPU'sunun boşta kalmasını göz önünde bulundurarak, Render, Akash ve io.net gibi projeler de bu pazara hizmet edebilir. Bu seçeneklerin sunulması, onların benzersiz bir pazar konumu geliştirmelerine olanak tanır ve büyük ölçekli yoğun hesaplama, genel küçük ölçekli render veya karma modlara odaklanmalarını sağlar.
Sonuç
AI DePIN alanı hala yenidir ve zorluklarla karşı karşıyadır. Örneğin, io.net GPU sayısını sahtecilikle suçlandı, ardından iş kanıtı getirerek sorunu çözdü.
Buna rağmen, merkeziyetsizlik GPU ağında gerçekleştirilen görevler ve donanım sayısı önemli ölçüde arttı ve bu da Web2 bulut hizmetleri için alternatiflere olan talebin arttığını gösteriyor. Donanım sağlayıcılarındaki artış, daha önce yeterince kullanılmayan bir arzı da ortaya koyuyor. Bu, AI DePIN ağının ürün pazar uyumunu kanıtlıyor ve talep ve arz zorluklarını etkili bir şekilde çözüyor.
Geleceğe baktığımızda, AI'nın büyük bir büyüklükte, trilyonlarca dolarlık bir pazara dönüşmesi bekleniyor. Bu merkeziyetsiz GPU ağları, geliştiricilere ekonomik olarak verimli bir hesaplama alternatifi sunacak. Sürekli olarak talep ve arz arasındaki boşluğu kapatarak, bu ağlar AI ve hesaplama altyapısının gelecekteki yapısına önemli katkılarda bulunacak.