AI dan DePIN: Kebangkitan Jaringan GPU Desentralisasi
Baru-baru ini, AI dan DePIN menjadi tren populer di bidang Web3, dengan kapitalisasi pasar masing-masing mencapai 30 miliar dolar AS dan 23 miliar dolar AS. Artikel ini akan fokus pada bidang persilangan keduanya dan membahas perkembangan protokol terkait.
Dalam tumpukan teknologi AI, jaringan DePIN memberdayakan AI dengan menyediakan sumber daya komputasi. Karena kekurangan GPU yang disebabkan oleh perusahaan teknologi besar, pengembang lain kesulitan untuk mendapatkan GPU yang cukup untuk perhitungan model AI. Praktik tradisional adalah memilih penyedia layanan cloud terpusat, tetapi harus menandatangani kontrak jangka panjang yang tidak fleksibel, yang tidak efisien.
DePIN menyediakan alternatif yang lebih fleksibel dan lebih biaya-efektif, dengan memberikan insentif kontribusi sumber daya melalui imbalan token. DePIN di bidang AI mengintegrasikan sumber daya GPU pribadi ke dalam pusat data, menyediakan pasokan yang terintegrasi untuk pengguna. Ini tidak hanya memberikan layanan sesuai permintaan yang disesuaikan untuk pengembang, tetapi juga menciptakan pendapatan tambahan bagi pemilik GPU.
Ada berbagai jaringan DePIN AI di pasar, artikel ini akan menganalisis fungsi, tujuan, dan pencapaian masing-masing protokol, serta perbedaan di antara mereka.
Ringkasan Jaringan DePIN AI
Render
Render adalah pelopor jaringan komputasi GPU P2P, awalnya fokus pada rendering penciptaan konten, kemudian diperluas ke tugas komputasi AI melalui integrasi alat seperti Stable Diffusion.
Sorotan:
Didirikan oleh perusahaan OTOY yang memenangkan penghargaan Oscar
Paramount Pictures, PUBG dan raksasa industri hiburan lainnya menggunakan jaringan GPU mereka
Bekerja sama dengan Stability AI, mengintegrasikan model AI dengan alur kerja rendering konten 3D
Menyetujui beberapa klien komputasi, mengintegrasikan lebih banyak GPU dari jaringan DePIN
Akash
Akash ditujukan sebagai platform "super cloud" yang mendukung penyimpanan, komputasi GPU, dan CPU, menggantikan penyedia layanan tradisional seperti AWS. Dengan menggunakan platform kontainer dan node komputasi yang dikelola oleh Kubernetes, aplikasi cloud native dapat disebarkan secara mulus.
Sorotan:
Menghadapi berbagai tugas komputasi dari komputasi umum hingga hosting jaringan
AkashML memungkinkan menjalankan lebih dari 15.000 model di Hugging Face
Mengelola aplikasi chatbot LLM Mistral AI, SDXL dari Stability AI, dan lainnya
Metaverse, implementasi AI, dan platform pembelajaran federasi memanfaatkan Supercloudnya
io.net
io.net menyediakan kluster cloud GPU terdistribusi, khusus untuk skenario AI dan ML. Mengintegrasikan sumber daya GPU dari pusat data, penambang kripto, dan bidang lainnya.
Sorotan:
IO-SDK kompatibel dengan kerangka kerja seperti PyTorch, arsitektur multi-level dapat secara otomatis disesuaikan berdasarkan kebutuhan.
Mendukung pembuatan 3 jenis kluster berbeda, mulai dalam 2 menit
Bekerja sama dengan Render, Filecoin, dan lainnya untuk mengintegrasikan lebih banyak sumber daya GPU
Gensyn
Gensyn menyediakan kemampuan komputasi GPU yang fokus pada pembelajaran mesin dan pembelajaran mendalam. Meningkatkan efisiensi verifikasi melalui mekanisme seperti pembelajaran yang terbukti.
Sorotan:
Biaya per jam V100 GPU sekitar 0,40 dolar AS, menghemat biaya secara signifikan.
Melalui pembuktian tumpukan, model dasar pra-latih dapat disesuaikan.
Model dasar akan Desentralisasi, dimiliki secara global, menyediakan fungsi tambahan
Aethir
Aethir dirancang khusus untuk GPU tingkat perusahaan, fokus pada bidang komputasi intensif seperti AI, ML, dan permainan cloud. Melalui kontainer, beban kerja dipindahkan dari lokal ke cloud, sehingga mencapai latensi rendah.
Sorotan:
Memperluas layanan ponsel cloud, bekerja sama dengan APhone untuk meluncurkan ponsel cloud desentralisasi.
Membangun kerjasama luas dengan raksasa Web2 seperti NVIDIA, Super Micro
Bekerja sama dengan banyak perusahaan seperti CARV, Magic Eden di bidang Web3
Jaringan Phala
Phala Network sebagai lapisan eksekusi solusi Web3 AI, menangani masalah privasi melalui lingkungan eksekusi tepercaya (TEE). Memungkinkan agen AI dikendalikan oleh kontrak pintar di atas rantai.
Sorotan:
Bertindak sebagai protokol co-processor yang dapat diverifikasi, memungkinkan agen AI untuk menggunakan sumber daya di blockchain
Kontrak agen AI dapat diperoleh melalui Redpill untuk LLM teratas seperti OpenAI
Masa depan mencakup sistem bukti multipel seperti zk-proofs, MPC, FHE
Rencana mendukung GPU TEE seperti H100, meningkatkan kemampuan komputasi
Perbandingan Proyek
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|-------------------|---------------------|---------|---------------|----------|
| Perangkat Keras | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Fokus Bisnis | Rendering Grafik dan AI | Komputasi Awan, Rendering dan AI | AI | AI | AI, Permainan Awan dan Telekomunikasi | Eksekusi AI di Blockchain |
| Jenis Tugas AI | Inferensi | Dua Arah | Dua Arah | Pelatihan | Pelatihan | Eksekusi |
| Penetapan Harga | Berdasarkan Kinerja | Lelang Terbalik | Penetapan Harga Pasar | Penetapan Harga Pasar | Sistem Tender | Perhitungan Hak |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privasi Data | Enkripsi&Hash | Autentikasi mTLS | Enkripsi Data | Pemetaan Aman | Enkripsi | TEE |
| Biaya kerja | 0,5-5%/kerja | 20% USDC, 4% AKT | 2% USDC, 0,25% cadangan | Biaya rendah | 20%/sesi | Sesuai dengan staking |
| Aman | Bukti Render | Bukti Kepemilikan | Bukti Perhitungan | Bukti Kepemilikan | Bukti Kemampuan Render | Turunan dari Rantai Perantara |
| Bukti Penyelesaian | - | - | Bukti Waktu Kunci | Bukti Pembelajaran | Bukti Pekerjaan Rendering | Bukti TEE |
| Jaminan Kualitas | Mekanisme Sengketa | - | - | Verifikator dan Pelapor | Cek Node | Bukti Jarak |
| GPU Cluster | Tidak | Ya | Ya | Ya | Ya | Tidak |
Pentingnya
Ketersediaan komputasi kluster dan paralel
Kerangka komputasi terdistribusi mewujudkan kluster GPU, menyediakan pelatihan yang lebih efisien, meningkatkan skalabilitas. Melatih model AI yang kompleks memerlukan kemampuan komputasi yang kuat, biasanya bergantung pada komputasi terdistribusi. Misalnya, model GPT-4 dari OpenAI memiliki lebih dari 1,8 triliun parameter, memakan waktu 3-4 bulan, menggunakan 128 kluster dengan sekitar 25.000 GPU Nvidia A100.
Sebagian besar proyek kini telah mengintegrasikan kluster untuk melakukan komputasi paralel. io.net bekerja sama dengan proyek lain, telah menerapkan lebih dari 3.800 kluster pada Q1. Render meskipun tidak mendukung kluster, tetapi memecah satu frame untuk diproses secara bersamaan di beberapa node. Phala saat ini hanya mendukung CPU, tetapi memungkinkan klusterisasi pekerja CPU.
Kerangka cluster sangat penting untuk jaringan alur kerja AI, tetapi jumlah dan jenis GPU cluster yang memenuhi kebutuhan pengembang AI adalah masalah lain.
Privasi data
Pengembangan model AI memerlukan kumpulan data yang besar, yang mungkin melibatkan informasi sensitif. Metode privasi data sangat penting untuk melindungi hak kontrol atas data.
Sebagian besar proyek menggunakan beberapa bentuk enkripsi untuk melindungi privasi data. Render menggunakan enkripsi dan hashing saat merilis hasil rendering. io.net dan Gensyn menerapkan enkripsi data. Akash menggunakan otentikasi mTLS, hanya mengizinkan penyedia yang ditentukan untuk menerima data.
io.net baru-baru ini bekerja sama dengan Mind Network untuk meluncurkan enkripsi homomorfik sepenuhnya (FHE), yang memungkinkan pemrosesan data terenkripsi secara langsung. Ini melindungi privasi dengan lebih baik dibandingkan dengan teknologi enkripsi yang ada.
Phala Network memperkenalkan lingkungan eksekusi terpercaya ( TEE ), yang mengisolasi untuk mencegah akses atau modifikasi data dari luar. Ini juga menggabungkan penggunaan zk-proofs untuk mengintegrasikan program RiscZero zkVM.
Bukti perhitungan selesai dan pemeriksaan kualitas
Bukti penyelesaian perhitungan menunjukkan bahwa GPU memang digunakan untuk layanan yang dibutuhkan, pemeriksaan kualitas bermanfaat bagi pengguna.
Gensyn dan Aethir menghasilkan bukti kerja selesai, io.net membuktikan bahwa kinerja GPU telah dimanfaatkan secara maksimal. Gensyn dan Aethir melakukan pemeriksaan kualitas. Gensyn menggunakan validator untuk menjalankan kembali sebagian bukti, pelapor sebagai pemeriksaan tambahan. Aethir menggunakan titik pemeriksaan untuk menilai kualitas layanan. Render menyarankan menggunakan proses penyelesaian sengketa untuk menangani node bermasalah. Phala menghasilkan bukti TEE, memastikan bahwa agen AI melakukan operasi yang diperlukan.
Pelatihan model AI cenderung menggunakan GPU berkinerja tinggi seperti Nvidia A100 dan H100. Kinerja inferensi H100 adalah 4 kali lipat dari A100, menjadikannya pilihan utama perusahaan besar untuk melatih LLM.
Penyedia pasar GPU desentralisasi tidak hanya harus menawarkan harga yang lebih rendah, tetapi juga memenuhi kebutuhan nyata. Pada tahun 2023, Nvidia mengirimkan lebih dari 500.000 unit H100 kepada perusahaan teknologi besar, membuat akses ke perangkat keras yang setara menjadi sulit. Penting untuk mempertimbangkan jumlah perangkat keras yang dapat diperkenalkan dengan biaya rendah dalam proyek.
Akash hanya memiliki lebih dari 150 H100 dan A100, sementara io.net dan Aethir masing-masing memiliki lebih dari 2000. Pre-training LLM dari awal biasanya memerlukan 248 hingga lebih dari 2000 cluster GPU, dua proyek terakhir lebih cocok untuk komputasi model besar.
Saat ini biaya layanan GPU desentralisasi sudah lebih rendah dibandingkan layanan terpusat. Gensyn dan Aethir mengklaim biaya sewa perangkat keras level A100 kurang dari 1 dolar per jam, tetapi masih perlu diverifikasi.
Koneksi jaringan GPU cluster meskipun murah, tetapi memori terbatas. NVLink mendukung komunikasi langsung antar GPU, cocok untuk LLMS dengan banyak parameter dan dataset besar.
Meskipun demikian, jaringan GPU desentralisasi tetap memberikan kemampuan dan skalabilitas yang kuat untuk komputasi terdistribusi, membuka situasi oligopoli untuk membangun lebih banyak kasus penggunaan AI dan ML.
Menyediakan GPU/CPU konsumen
CPU juga sangat penting dalam pelatihan model AI, digunakan untuk pra-pemrosesan data dan manajemen memori. GPU kelas konsumen dapat digunakan untuk menyempurnakan model yang telah dilatih sebelumnya atau pelatihan skala kecil.
Mengingat lebih dari 85% konsumen GPU tidak terpakai, proyek seperti Render, Akash, dan io.net juga dapat melayani pasar ini. Menyediakan opsi ini memungkinkan mereka mengembangkan posisi pasar yang unik, dengan fokus pada komputasi intensif skala besar, rendering skala kecil yang umum, atau mode campuran.
Kesimpulan
Bidang DePIN AI masih relatif baru dan menghadapi tantangan. Misalnya, io.net pernah dituduh memalsukan jumlah GPU, tetapi kemudian masalah tersebut diselesaikan dengan memperkenalkan bukti kerja.
Meskipun demikian, jumlah tugas dan perangkat keras yang dijalankan di jaringan GPU desentralisasi meningkat secara signifikan, menyoroti meningkatnya permintaan untuk alternatif layanan cloud Web2. Peningkatan penyedia perangkat keras juga menunjukkan pasokan yang sebelumnya tidak dimanfaatkan dengan baik. Ini membuktikan kesesuaian produk pasar jaringan AI DePIN, yang secara efektif mengatasi tantangan permintaan dan pasokan.
Melihat ke depan, AI akan berkembang menjadi pasar yang bernilai triliunan dolar yang berkembang pesat, jaringan GPU yang terdesentralisasi ini akan menyediakan alternatif komputasi yang efisien secara ekonomi bagi para pengembang. Dengan terus menjembatani kesenjangan antara permintaan dan penawaran, jaringan ini akan memberikan kontribusi signifikan terhadap lanskap masa depan infrastruktur AI dan komputasi.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
7 Suka
Hadiah
7
4
Bagikan
Komentar
0/400
MEVHunter
· 13jam yang lalu
investor ritel juga bisa mendapatkan bagian
Lihat AsliBalas0
LiquidationWatcher
· 13jam yang lalu
Kesempatan yang baik
Lihat AsliBalas0
GateUser-4745f9ce
· 13jam yang lalu
Mengatasi kecemasan sumber daya
Lihat AsliBalas0
SandwichHunter
· 14jam yang lalu
Sekarang adalah waktu yang tepat untuk membeli kartu untuk penambangan.
Kebangkitan AI DePIN: Jaringan GPU Desentralisasi Merombak Infrastruktur Komputasi
AI dan DePIN: Kebangkitan Jaringan GPU Desentralisasi
Baru-baru ini, AI dan DePIN menjadi tren populer di bidang Web3, dengan kapitalisasi pasar masing-masing mencapai 30 miliar dolar AS dan 23 miliar dolar AS. Artikel ini akan fokus pada bidang persilangan keduanya dan membahas perkembangan protokol terkait.
Dalam tumpukan teknologi AI, jaringan DePIN memberdayakan AI dengan menyediakan sumber daya komputasi. Karena kekurangan GPU yang disebabkan oleh perusahaan teknologi besar, pengembang lain kesulitan untuk mendapatkan GPU yang cukup untuk perhitungan model AI. Praktik tradisional adalah memilih penyedia layanan cloud terpusat, tetapi harus menandatangani kontrak jangka panjang yang tidak fleksibel, yang tidak efisien.
DePIN menyediakan alternatif yang lebih fleksibel dan lebih biaya-efektif, dengan memberikan insentif kontribusi sumber daya melalui imbalan token. DePIN di bidang AI mengintegrasikan sumber daya GPU pribadi ke dalam pusat data, menyediakan pasokan yang terintegrasi untuk pengguna. Ini tidak hanya memberikan layanan sesuai permintaan yang disesuaikan untuk pengembang, tetapi juga menciptakan pendapatan tambahan bagi pemilik GPU.
Ada berbagai jaringan DePIN AI di pasar, artikel ini akan menganalisis fungsi, tujuan, dan pencapaian masing-masing protokol, serta perbedaan di antara mereka.
Ringkasan Jaringan DePIN AI
Render
Render adalah pelopor jaringan komputasi GPU P2P, awalnya fokus pada rendering penciptaan konten, kemudian diperluas ke tugas komputasi AI melalui integrasi alat seperti Stable Diffusion.
Sorotan:
Akash
Akash ditujukan sebagai platform "super cloud" yang mendukung penyimpanan, komputasi GPU, dan CPU, menggantikan penyedia layanan tradisional seperti AWS. Dengan menggunakan platform kontainer dan node komputasi yang dikelola oleh Kubernetes, aplikasi cloud native dapat disebarkan secara mulus.
Sorotan:
io.net
io.net menyediakan kluster cloud GPU terdistribusi, khusus untuk skenario AI dan ML. Mengintegrasikan sumber daya GPU dari pusat data, penambang kripto, dan bidang lainnya.
Sorotan:
Gensyn
Gensyn menyediakan kemampuan komputasi GPU yang fokus pada pembelajaran mesin dan pembelajaran mendalam. Meningkatkan efisiensi verifikasi melalui mekanisme seperti pembelajaran yang terbukti.
Sorotan:
Aethir
Aethir dirancang khusus untuk GPU tingkat perusahaan, fokus pada bidang komputasi intensif seperti AI, ML, dan permainan cloud. Melalui kontainer, beban kerja dipindahkan dari lokal ke cloud, sehingga mencapai latensi rendah.
Sorotan:
Jaringan Phala
Phala Network sebagai lapisan eksekusi solusi Web3 AI, menangani masalah privasi melalui lingkungan eksekusi tepercaya (TEE). Memungkinkan agen AI dikendalikan oleh kontrak pintar di atas rantai.
Sorotan:
Perbandingan Proyek
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | Perangkat Keras | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Fokus Bisnis | Rendering Grafik dan AI | Komputasi Awan, Rendering dan AI | AI | AI | AI, Permainan Awan dan Telekomunikasi | Eksekusi AI di Blockchain | | Jenis Tugas AI | Inferensi | Dua Arah | Dua Arah | Pelatihan | Pelatihan | Eksekusi | | Penetapan Harga | Berdasarkan Kinerja | Lelang Terbalik | Penetapan Harga Pasar | Penetapan Harga Pasar | Sistem Tender | Perhitungan Hak | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privasi Data | Enkripsi&Hash | Autentikasi mTLS | Enkripsi Data | Pemetaan Aman | Enkripsi | TEE | | Biaya kerja | 0,5-5%/kerja | 20% USDC, 4% AKT | 2% USDC, 0,25% cadangan | Biaya rendah | 20%/sesi | Sesuai dengan staking | | Aman | Bukti Render | Bukti Kepemilikan | Bukti Perhitungan | Bukti Kepemilikan | Bukti Kemampuan Render | Turunan dari Rantai Perantara | | Bukti Penyelesaian | - | - | Bukti Waktu Kunci | Bukti Pembelajaran | Bukti Pekerjaan Rendering | Bukti TEE | | Jaminan Kualitas | Mekanisme Sengketa | - | - | Verifikator dan Pelapor | Cek Node | Bukti Jarak | | GPU Cluster | Tidak | Ya | Ya | Ya | Ya | Tidak |
Pentingnya
Ketersediaan komputasi kluster dan paralel
Kerangka komputasi terdistribusi mewujudkan kluster GPU, menyediakan pelatihan yang lebih efisien, meningkatkan skalabilitas. Melatih model AI yang kompleks memerlukan kemampuan komputasi yang kuat, biasanya bergantung pada komputasi terdistribusi. Misalnya, model GPT-4 dari OpenAI memiliki lebih dari 1,8 triliun parameter, memakan waktu 3-4 bulan, menggunakan 128 kluster dengan sekitar 25.000 GPU Nvidia A100.
Sebagian besar proyek kini telah mengintegrasikan kluster untuk melakukan komputasi paralel. io.net bekerja sama dengan proyek lain, telah menerapkan lebih dari 3.800 kluster pada Q1. Render meskipun tidak mendukung kluster, tetapi memecah satu frame untuk diproses secara bersamaan di beberapa node. Phala saat ini hanya mendukung CPU, tetapi memungkinkan klusterisasi pekerja CPU.
Kerangka cluster sangat penting untuk jaringan alur kerja AI, tetapi jumlah dan jenis GPU cluster yang memenuhi kebutuhan pengembang AI adalah masalah lain.
Privasi data
Pengembangan model AI memerlukan kumpulan data yang besar, yang mungkin melibatkan informasi sensitif. Metode privasi data sangat penting untuk melindungi hak kontrol atas data.
Sebagian besar proyek menggunakan beberapa bentuk enkripsi untuk melindungi privasi data. Render menggunakan enkripsi dan hashing saat merilis hasil rendering. io.net dan Gensyn menerapkan enkripsi data. Akash menggunakan otentikasi mTLS, hanya mengizinkan penyedia yang ditentukan untuk menerima data.
io.net baru-baru ini bekerja sama dengan Mind Network untuk meluncurkan enkripsi homomorfik sepenuhnya (FHE), yang memungkinkan pemrosesan data terenkripsi secara langsung. Ini melindungi privasi dengan lebih baik dibandingkan dengan teknologi enkripsi yang ada.
Phala Network memperkenalkan lingkungan eksekusi terpercaya ( TEE ), yang mengisolasi untuk mencegah akses atau modifikasi data dari luar. Ini juga menggabungkan penggunaan zk-proofs untuk mengintegrasikan program RiscZero zkVM.
Bukti perhitungan selesai dan pemeriksaan kualitas
Bukti penyelesaian perhitungan menunjukkan bahwa GPU memang digunakan untuk layanan yang dibutuhkan, pemeriksaan kualitas bermanfaat bagi pengguna.
Gensyn dan Aethir menghasilkan bukti kerja selesai, io.net membuktikan bahwa kinerja GPU telah dimanfaatkan secara maksimal. Gensyn dan Aethir melakukan pemeriksaan kualitas. Gensyn menggunakan validator untuk menjalankan kembali sebagian bukti, pelapor sebagai pemeriksaan tambahan. Aethir menggunakan titik pemeriksaan untuk menilai kualitas layanan. Render menyarankan menggunakan proses penyelesaian sengketa untuk menangani node bermasalah. Phala menghasilkan bukti TEE, memastikan bahwa agen AI melakukan operasi yang diperlukan.
Data Statistik Perangkat Keras
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Jumlah GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Jumlah CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Jumlah H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Biaya H100/jam | - | $1.46 | $1.19 | - | - | - | | Biaya A100/jam | - | $1.37 | $1.50 | $0.55 ( diperkirakan ) | $0.33 ( diperkirakan ) | - |
Permintaan GPU berkinerja tinggi
Pelatihan model AI cenderung menggunakan GPU berkinerja tinggi seperti Nvidia A100 dan H100. Kinerja inferensi H100 adalah 4 kali lipat dari A100, menjadikannya pilihan utama perusahaan besar untuk melatih LLM.
Penyedia pasar GPU desentralisasi tidak hanya harus menawarkan harga yang lebih rendah, tetapi juga memenuhi kebutuhan nyata. Pada tahun 2023, Nvidia mengirimkan lebih dari 500.000 unit H100 kepada perusahaan teknologi besar, membuat akses ke perangkat keras yang setara menjadi sulit. Penting untuk mempertimbangkan jumlah perangkat keras yang dapat diperkenalkan dengan biaya rendah dalam proyek.
Akash hanya memiliki lebih dari 150 H100 dan A100, sementara io.net dan Aethir masing-masing memiliki lebih dari 2000. Pre-training LLM dari awal biasanya memerlukan 248 hingga lebih dari 2000 cluster GPU, dua proyek terakhir lebih cocok untuk komputasi model besar.
Saat ini biaya layanan GPU desentralisasi sudah lebih rendah dibandingkan layanan terpusat. Gensyn dan Aethir mengklaim biaya sewa perangkat keras level A100 kurang dari 1 dolar per jam, tetapi masih perlu diverifikasi.
Koneksi jaringan GPU cluster meskipun murah, tetapi memori terbatas. NVLink mendukung komunikasi langsung antar GPU, cocok untuk LLMS dengan banyak parameter dan dataset besar.
Meskipun demikian, jaringan GPU desentralisasi tetap memberikan kemampuan dan skalabilitas yang kuat untuk komputasi terdistribusi, membuka situasi oligopoli untuk membangun lebih banyak kasus penggunaan AI dan ML.
Menyediakan GPU/CPU konsumen
CPU juga sangat penting dalam pelatihan model AI, digunakan untuk pra-pemrosesan data dan manajemen memori. GPU kelas konsumen dapat digunakan untuk menyempurnakan model yang telah dilatih sebelumnya atau pelatihan skala kecil.
Mengingat lebih dari 85% konsumen GPU tidak terpakai, proyek seperti Render, Akash, dan io.net juga dapat melayani pasar ini. Menyediakan opsi ini memungkinkan mereka mengembangkan posisi pasar yang unik, dengan fokus pada komputasi intensif skala besar, rendering skala kecil yang umum, atau mode campuran.
Kesimpulan
Bidang DePIN AI masih relatif baru dan menghadapi tantangan. Misalnya, io.net pernah dituduh memalsukan jumlah GPU, tetapi kemudian masalah tersebut diselesaikan dengan memperkenalkan bukti kerja.
Meskipun demikian, jumlah tugas dan perangkat keras yang dijalankan di jaringan GPU desentralisasi meningkat secara signifikan, menyoroti meningkatnya permintaan untuk alternatif layanan cloud Web2. Peningkatan penyedia perangkat keras juga menunjukkan pasokan yang sebelumnya tidak dimanfaatkan dengan baik. Ini membuktikan kesesuaian produk pasar jaringan AI DePIN, yang secara efektif mengatasi tantangan permintaan dan pasokan.
Melihat ke depan, AI akan berkembang menjadi pasar yang bernilai triliunan dolar yang berkembang pesat, jaringan GPU yang terdesentralisasi ini akan menyediakan alternatif komputasi yang efisien secara ekonomi bagi para pengembang. Dengan terus menjembatani kesenjangan antara permintaan dan penawaran, jaringan ini akan memberikan kontribusi signifikan terhadap lanskap masa depan infrastruktur AI dan komputasi.