تقاطع الذكاء الاصطناعي وDePIN: استكشاف تطوير شبكة GPU اللامركزية
منذ عام 2023، حظيت الذكاء الاصطناعي وDePIN باهتمام كبير في مجال Web3، حيث بلغت القيمة السوقية لكل منهما 30 مليار دولار و23 مليار دولار على التوالي. ستركز هذه المقالة على المجالات المتداخلة بينهما، وتستكشف تطور البروتوكولات ذات الصلة.
في مجموعة تقنيات الذكاء الاصطناعي، يمكّن شبكة DePIN الذكاء الاصطناعي من خلال توفير موارد الحوسبة. بسبب تطور شركات التكنولوجيا الكبرى مما أدى إلى نقص في وحدات معالجة الرسوميات، أصبح من الصعب على المطورين الآخرين الحصول على ما يكفي من موارد وحدات معالجة الرسوميات لبناء نماذج الذكاء الاصطناعي الخاصة بهم. تقليديًا، كان المطورون يختارون مزودي خدمات السحاب المركزية، لكن هذا غالبًا ما يتطلب توقيع عقود طويلة الأجل غير مرنة، مما يقلل من الكفاءة.
يوفر DePIN بديلاً أكثر مرونة وفعالية من حيث التكلفة. إنه يحفز مساهمات الموارد من خلال مكافآت الرموز، حيث يقوم بتجميع موارد GPU من الملاك الأفراد إلى مراكز البيانات، مما يشكل إمدادًا موحدًا للمستخدمين الذين يحتاجون إلى الأجهزة. هذا لا يوفر فقط للمطورين قدرة حسابية قابلة للتخصيص والاستخدام حسب الطلب، بل يوفر أيضًا لأصحاب GPU مصدر دخل إضافي.
توجد عدة شبكات DePIN الذكية في السوق، ولكل منها ميزاتها الخاصة. في ما يلي، سنستكشف ميزات وأهداف بعض المشاريع الرئيسية، بالإضافة إلى بعض إنجازاتها المحددة.
Render هو رائد شبكة P2P التي توفر القدرة على حساب GPU، وقد ركز في البداية على تجسيد إنشاء المحتوى، ثم وسع نطاقه ليشمل مهام الحساب AI.
الميزات:
تأسست شركة OTOY للرسم السحابي الحائزة على جائزة الأوسكار
تم استخدام شبكة GPU من قبل شركات كبيرة في صناعة الترفيه، مثل باراماونت بيكتشرز وPUBG.
التعاون مع Stability AI و Endeavor لدمج نماذج الذكاء الاصطناعي مع سير عمل عرض المحتوى ثلاثي الأبعاد
الموافقة على عدة عملاء حسابيين، دمج المزيد من شبكات DePIN للمعالجات الرسومية
Akash يُعتبر بديلاً "للسحابة الفائقة" يدعم التخزين، والحوسبة باستخدام GPU وCPU. من خلال استخدام منصة الحاويات والعقد المحسوبة المدارة بواسطة Kubernetes، يمكن نشر البرمجيات بسلاسة عبر البيئات وتشغيل أي تطبيق سحابي أصلي.
الخصائص:
للمهام الحوسبة الواسعة النطاق من الحوسبة العامة إلى استضافة الشبكة
AkashML يسمح لشبكة GPU الخاصة به بتشغيل أكثر من 15,000 نموذج على Hugging Face
استضافت بعض التطبيقات المعروفة، مثل روبوت الدردشة LLM لنموذج Mistral AI، ونموذج SDXL من Stability AI، وغيرها
يدعم بناء منصات الميتافيرس، ونشر الذكاء الاصطناعي، والتعلم الفيدرالي
io.net يوفر الوصول إلى تجمعات السحب GPU الموزعة، المخصصة لحالات استخدام الذكاء الاصطناعي والتعلم الآلي. يجمع موارد GPU من مراكز البيانات وعمالة التعدين المشفرة وشبكات اللامركزية الأخرى.
الميزات:
IO-SDK متوافق مع أطر مثل PyTorch و Tensorflow، والهندسة المعمارية متعددة الطبقات يمكن توسيعها ديناميكيًا حسب الاحتياجات
يدعم إنشاء 3 أنواع مختلفة من العناقيد، يمكن بدء التشغيل في غضون دقيقتين
التعاون مع العديد من شبكات DePIN مثل Render و Filecoin و Aethir، ودمج موارد GPU
Gensyn تقدم قدرات الحوسبة GPU التي تركز على التعلم الآلي والتعلم العميق. إنها تعزز الكفاءة من خلال آلية تحقق مبتكرة.
الميزات:
تكلفة الساعة لجهاز V100 المكافئ لوحدة معالجة الرسومات حوالي 0.40 دولار، مما يوفر بشكل كبير في التكاليف
من خلال إثبات المكدس، يمكن ضبط نموذج الأساس المدرب مسبقًا
ستكون هذه النماذج الأساسية اللامركزية مملوكة عالميًا
Aethir مصممة خصيصًا لتشغيل وحدات معالجة الرسوميات الخاصة بالشركات، تركز على المجالات التي تتطلب حسابات كثيفة، مثل الذكاء الاصطناعي، والتعلم الآلي، والألعاب السحابية، وغيرها. تعمل الحاويات في شبكتها كنقاط نهاية افتراضية لتنفيذ التطبيقات المستندة إلى السحابة.
الميزات:
باستثناء الذكاء الاصطناعي وألعاب السحابة، تم توسيعها أيضًا إلى خدمات الهاتف السحابي، بالتعاون مع APhone لإطلاق هاتف ذكي سحابي لامركزي.
إقامة شراكة واسعة مع شركات Web2 الكبرى مثل NVIDIA وSuper Micro وHPE
التعاون مع عدة مشاريع Web3 مثل CARV و Magic Eden
شبكة فالا كطبقة تنفيذية لحلول Web3 AI. تعتبر سلسلة الكتل الخاصة بها حلاً للحوسبة السحابية بدون ثقة، يتم تصميمها لمعالجة مشكلات الخصوصية من خلال بيئات التنفيذ الموثوقة (TEE).
خصوصيه:
تعمل كبرتوكول ت co-processor القابل للتحقق من الحسابات، مما يمكن وكلاء الذكاء الاصطناعي من الوصول إلى الموارد على السلسلة.
يمكن الوصول إلى نماذج اللغة الكبيرة الرائدة مثل OpenAI وLlama عبر Redpill من خلال عقود الوكلاء الذكية.
المستقبل سيشمل أنظمة إثبات متعددة مثل zk-proofs، الحوسبة متعددة الأطراف، والتشفير المتجانس بالكامل.
دعم H100 وغيرها من وحدات معالجة الرسوميات TEE في المستقبل، لتحسين القدرة الحسابية
مقارنة المشاريع
| | رندر | أكاش | io.net | جينسين | أثير | فالا |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية |
| التركيز على الأعمال | عرض الرسوميات والذكاء الاصطناعي | الحوسبة السحابية، العرض والذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي، الألعاب السحابية والاتصالات | تنفيذ الذكاء الاصطناعي على السلسلة |
| نوع مهمة AI | استنتاج | كلاهما | كلاهما | تدريب | تدريب | تنفيذ |
| تسعير العمل | تسعير قائم على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصة | حساب حقوق الملكية |
| بلوكشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت |
| خصوصية البيانات | تشفير&تجزئة | مصادقة mTLS | تشفير البيانات | خريطة آمنة | تشفير | TEE |
| تكاليف العمل | لكل عمل 0.5-5% | 20% USDC، 4% AKT | 2% USDC، 0.25% تكلفة الاحتياطي | تكاليف منخفضة | لكل جلسة 20% | تتناسب مع مبلغ الرهان |
| الأمان | إثبات الرندر | إثبات الملكية | إثبات الحسابات | إثبات الملكية | إثبات قدرة الرندر | موروث من سلسلة الوسيط |
| إثبات الإنجاز | - | - | إثبات القفل الزمني | إثبات التعلم | إثبات العمل المقدم | إثبات TEE |
| ضمان الجودة | نزاع | - | - | المُحققون والمُبلغون | عقدة الفحص | إثبات عن بُعد |
| مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
الأهمية
توافر التجميع والحوسبة الموازية
إطار الحوسبة الموزعة ينفذ مجموعة GPU، ويوفر تدريبًا أكثر كفاءة دون التأثير على دقة النموذج، بينما يعزز القابلية للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قوة حسابية قوية، وغالبًا ما يعتمد على الحوسبة الموزعة. على سبيل المثال، يمتلك نموذج GPT-4 من OpenAI أكثر من 1.8 تريليون معلمة، وتم تدريبه خلال 3-4 أشهر باستخدام حوالي 25,000 من وحدات معالجة الرسومات Nvidia A100 ضمن 128 مجموعة.
تقوم معظم المشاريع الرئيسية الآن بدمج المجموعات لتحقيق الحوسبة المتوازية. تتعاون io.net مع مشاريع مثل Render وFilecoin وAethir لإدخال المزيد من وحدات معالجة الرسوميات في شبكتها، وقد نشرت أكثر من 3800 مجموعة في الربع الأول من عام 24. على الرغم من أن Render لا يدعم المجموعات، إلا أن طريقة عمله مشابهة، حيث يتم تقسيم الإطار الفردي إلى عدة عقد لمعالجتها في نفس الوقت. تدعم Phala حالياً وحدات المعالجة المركزية فقط، ولكنها تسمح بتجميع وحدات المعالجة المركزية.
خصوصية البيانات
تتطلب تطوير نماذج الذكاء الاصطناعي استخدام مجموعات بيانات كبيرة، قد تحتوي هذه البيانات على معلومات حساسة. إن ضمان خصوصية البيانات أمر بالغ الأهمية لإعادة السيطرة على البيانات إلى مزودي البيانات.
تستخدم معظم المشاريع نوعًا ما من تشفير البيانات لحماية خصوصية البيانات. تستخدم Render التشفير ومعالجة التجزئة عند إصدار نتائج الرندر، وتعتمد io.net وGensyn على تشفير البيانات، بينما تستخدم Akash مصادقة mTLS.
أعلنت io.net مؤخرًا عن تعاونها مع شبكة Mind لإطلاق التشفير المتجانس بالكامل (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك تشفيرها مسبقًا. قدمت شبكة Phala بيئة التنفيذ الموثوقة (TEE)، لمنع العمليات الخارجية من الوصول إلى البيانات أو تعديلها.
إثبات إكمال الحساب وفحص الجودة
نظرًا لأن وحدات معالجة الرسومات (GPU) التي تقدمها هذه المشاريع يمكن استخدامها في مجموعة واسعة من الخدمات، من عرض الرسوم إلى الحسابات الذكية، لذلك من الضروري إكمال آلية التحقق من الصحة وفحص الجودة.
تقوم Gensyn و Aethir بإنشاء إثباتات بعد الانتهاء من الحسابات، وتوضح إثباتات io.net أن أداء GPU المستأجر قد تم استخدامه بشكل كامل. ستقوم Gensyn و Aethir بإجراء فحص جودة للحسابات المنجزة. تقترح Render استخدام عملية حل النزاعات. بعد الانتهاء من Phala، سيتم إنشاء إثبات TEE لضمان تنفيذ الوكلاء الذكاء الاصطناعي للعمليات المطلوبة على الشبكة.
تتطلب تدريب نماذج الذكاء الاصطناعي وحدات معالجة الرسومات (GPU) ذات الأداء الأمثل، مثل A100 و H100 من Nvidia. إن أداء H100 في الاستدلال أسرع بأربعة أضعاف من A100، وقد أصبحت الخيار المفضل، خاصةً بالنسبة للشركات الكبيرة التي تقوم بتدريب نماذج اللغة الكبيرة الخاصة بها.
يجب أن تنافس مزودي سوق GPU اللامركزي نظرائهم في Web2، ليس فقط من خلال تقديم أسعار أقل، ولكن أيضًا من خلال تلبية الاحتياجات الفعلية للسوق. في عام 2023، قامت Nvidia بتسليم أكثر من 500,000 وحدة H100 لشركات التكنولوجيا الكبرى اللامركزية، مما جعل الحصول على نفس الأجهزة أمرًا صعبًا.
تمتلك io.net و Aethir أكثر من 2000 وحدة H100 و A100 لكل منهما، مما يجعلها أكثر ملاءمة لحسابات النماذج الكبيرة. بناءً على حجم الكلاستر المطلوب من قبل المطورين، فإن تكاليف هذه الخدمات GPU اللامركزية أصبحت الآن أقل بكثير من خدمات GPU المركزية.
على الرغم من أن مجموعة GPU المتصلة بالشبكة محدودة من حيث الذاكرة، إلا أن الشبكة اللامركزية للـ GPU لا تزال توفر قوة حسابية قوية وقابلية للتوسع لمهام الحوسبة الموزعة للمستخدمين الذين يحتاجون إلى المرونة وقدرة توزيع عبء العمل عبر عدة عقد.
توفير وحدة معالجة الرسوميات/وحدة المعالجة المركزية من فئة المستهلك
تلعب وحدة المعالجة المركزية أيضًا دورًا مهمًا في تدريب نماذج الذكاء الاصطناعي، حيث يمكن استخدامها في عدة مراحل بدءًا من إعداد البيانات وصولاً إلى إدارة موارد الذاكرة. يمكن استخدام وحدات معالجة الرسوميات من فئة المستهلك في المهام الأقل كثافة، مثل تعديل النماذج المدربة مسبقًا أو تدريب نماذج صغيرة على مجموعات بيانات صغيرة.
نظرًا لأن أكثر من 85% من موارد GPU للمستهلكين في حالة خمول، يمكن لمشاريع مثل Render و Akash و io.net أيضًا خدمة هذه السوق. يوفر تقديم هذه الخيارات لهم تطوير موقعهم في السوق، مع التركيز على الحوسبة الشديدة الكثافة أو العرض الصغير أو مزيج من الاثنين.
لا يزال مجال AI DePIN ناشئًا نسبيًا ويواجه تحدياته الخاصة. ومع ذلك، فإن المهام وعدد الأجهزة التي يتم تنفيذها على هذه الشبكات اللامركزية GPU قد زادت بشكل ملحوظ، مما يبرز الطلب المتزايد على بدائل موارد الأجهزة من مزودي خدمات Web2 السحابية. في الوقت نفسه، فإن زيادة عدد مزودي الأجهزة تُظهر أيضًا وجود إمدادات لم تُستغل بشكل كافٍ في السابق. وهذا يُثبت بشكل أكبر ملاءمة منتجات شبكة AI DePIN للسوق، حيث تعالج بفعالية التحديات المتعلقة بالطلب والعرض.
في المستقبل، من المتوقع أن تتطور الذكاء الاصطناعي ليصبح سوقًا مزدهرًا بقيمة تريليونات الدولارات. ستلعب هذه الشبكات اللامركزية من وحدات معالجة الرسومات دورًا رئيسيًا في توفير بدائل حسابية فعالة من حيث التكلفة للمطورين. من خلال سد الفجوة باستمرار بين الطلب والعرض، ستساهم هذه الشبكات بشكل كبير في الشكل المستقبلي للبنية التحتية للذكاء الاصطناعي والحوسبة.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 14
أعجبني
14
7
مشاركة
تعليق
0/400
LiquidationWatcher
· منذ 9 س
من الواضح أن وحدة معالجة الرسوميات لا تزال فائزة بشكل مركزي
شاهد النسخة الأصليةرد0
MidnightSeller
· منذ 9 س
آه، هل سيكون هناك سوق صاعدة مرة أخرى لـ gpu؟
شاهد النسخة الأصليةرد0
AirdropworkerZhang
· منذ 9 س
بصراحة، من لا يعمل على الذكاء الاصطناعي الآن، الكل مشغول بـ depin.
شاهد النسخة الأصليةرد0
AirdropHunterKing
· منذ 9 س
خداع الناس لتحقيق الربح撸过的N个 توزيع مجاني都在路上了
شاهد النسخة الأصليةرد0
CoconutWaterBoy
· منذ 9 س
نفاد وحدات معالجة الرسومات؟ يعني أنك تبحث عن المعدّن كما لو كنت تحمل فانوسًا.
شاهد النسخة الأصليةرد0
Layer2Arbitrageur
· منذ 9 س
*يتثاءب* مجرد زيادة كفاءة أخرى بمقدار 300 نقطة أساس... أوقظوني عندما نصل إلى معدلات استخدام GPU تبلغ 10 أضعاف
تصادم الذكاء الاصطناعي و DePIN: استكشاف تطور شبكة GPU اللامركزية
تقاطع الذكاء الاصطناعي وDePIN: استكشاف تطوير شبكة GPU اللامركزية
منذ عام 2023، حظيت الذكاء الاصطناعي وDePIN باهتمام كبير في مجال Web3، حيث بلغت القيمة السوقية لكل منهما 30 مليار دولار و23 مليار دولار على التوالي. ستركز هذه المقالة على المجالات المتداخلة بينهما، وتستكشف تطور البروتوكولات ذات الصلة.
في مجموعة تقنيات الذكاء الاصطناعي، يمكّن شبكة DePIN الذكاء الاصطناعي من خلال توفير موارد الحوسبة. بسبب تطور شركات التكنولوجيا الكبرى مما أدى إلى نقص في وحدات معالجة الرسوميات، أصبح من الصعب على المطورين الآخرين الحصول على ما يكفي من موارد وحدات معالجة الرسوميات لبناء نماذج الذكاء الاصطناعي الخاصة بهم. تقليديًا، كان المطورون يختارون مزودي خدمات السحاب المركزية، لكن هذا غالبًا ما يتطلب توقيع عقود طويلة الأجل غير مرنة، مما يقلل من الكفاءة.
يوفر DePIN بديلاً أكثر مرونة وفعالية من حيث التكلفة. إنه يحفز مساهمات الموارد من خلال مكافآت الرموز، حيث يقوم بتجميع موارد GPU من الملاك الأفراد إلى مراكز البيانات، مما يشكل إمدادًا موحدًا للمستخدمين الذين يحتاجون إلى الأجهزة. هذا لا يوفر فقط للمطورين قدرة حسابية قابلة للتخصيص والاستخدام حسب الطلب، بل يوفر أيضًا لأصحاب GPU مصدر دخل إضافي.
توجد عدة شبكات DePIN الذكية في السوق، ولكل منها ميزاتها الخاصة. في ما يلي، سنستكشف ميزات وأهداف بعض المشاريع الرئيسية، بالإضافة إلى بعض إنجازاتها المحددة.
! تقاطع الذكاء الاصطناعي و DePIN
نظرة عامة على شبكة DePIN الذكاء الاصطناعي
Render هو رائد شبكة P2P التي توفر القدرة على حساب GPU، وقد ركز في البداية على تجسيد إنشاء المحتوى، ثم وسع نطاقه ليشمل مهام الحساب AI.
الميزات:
Akash يُعتبر بديلاً "للسحابة الفائقة" يدعم التخزين، والحوسبة باستخدام GPU وCPU. من خلال استخدام منصة الحاويات والعقد المحسوبة المدارة بواسطة Kubernetes، يمكن نشر البرمجيات بسلاسة عبر البيئات وتشغيل أي تطبيق سحابي أصلي.
الخصائص:
io.net يوفر الوصول إلى تجمعات السحب GPU الموزعة، المخصصة لحالات استخدام الذكاء الاصطناعي والتعلم الآلي. يجمع موارد GPU من مراكز البيانات وعمالة التعدين المشفرة وشبكات اللامركزية الأخرى.
الميزات:
Gensyn تقدم قدرات الحوسبة GPU التي تركز على التعلم الآلي والتعلم العميق. إنها تعزز الكفاءة من خلال آلية تحقق مبتكرة.
الميزات:
Aethir مصممة خصيصًا لتشغيل وحدات معالجة الرسوميات الخاصة بالشركات، تركز على المجالات التي تتطلب حسابات كثيفة، مثل الذكاء الاصطناعي، والتعلم الآلي، والألعاب السحابية، وغيرها. تعمل الحاويات في شبكتها كنقاط نهاية افتراضية لتنفيذ التطبيقات المستندة إلى السحابة.
الميزات:
شبكة فالا كطبقة تنفيذية لحلول Web3 AI. تعتبر سلسلة الكتل الخاصة بها حلاً للحوسبة السحابية بدون ثقة، يتم تصميمها لمعالجة مشكلات الخصوصية من خلال بيئات التنفيذ الموثوقة (TEE).
خصوصيه:
مقارنة المشاريع
| | رندر | أكاش | io.net | جينسين | أثير | فالا | |--------|-------------|------------------|---------------------|---------|---------------|----------| | الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية | | التركيز على الأعمال | عرض الرسوميات والذكاء الاصطناعي | الحوسبة السحابية، العرض والذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي | الذكاء الاصطناعي، الألعاب السحابية والاتصالات | تنفيذ الذكاء الاصطناعي على السلسلة | | نوع مهمة AI | استنتاج | كلاهما | كلاهما | تدريب | تدريب | تنفيذ | | تسعير العمل | تسعير قائم على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصة | حساب حقوق الملكية | | بلوكشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت | | خصوصية البيانات | تشفير&تجزئة | مصادقة mTLS | تشفير البيانات | خريطة آمنة | تشفير | TEE | | تكاليف العمل | لكل عمل 0.5-5% | 20% USDC، 4% AKT | 2% USDC، 0.25% تكلفة الاحتياطي | تكاليف منخفضة | لكل جلسة 20% | تتناسب مع مبلغ الرهان | | الأمان | إثبات الرندر | إثبات الملكية | إثبات الحسابات | إثبات الملكية | إثبات قدرة الرندر | موروث من سلسلة الوسيط | | إثبات الإنجاز | - | - | إثبات القفل الزمني | إثبات التعلم | إثبات العمل المقدم | إثبات TEE | | ضمان الجودة | نزاع | - | - | المُحققون والمُبلغون | عقدة الفحص | إثبات عن بُعد | | مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
الأهمية
توافر التجميع والحوسبة الموازية
إطار الحوسبة الموزعة ينفذ مجموعة GPU، ويوفر تدريبًا أكثر كفاءة دون التأثير على دقة النموذج، بينما يعزز القابلية للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قوة حسابية قوية، وغالبًا ما يعتمد على الحوسبة الموزعة. على سبيل المثال، يمتلك نموذج GPT-4 من OpenAI أكثر من 1.8 تريليون معلمة، وتم تدريبه خلال 3-4 أشهر باستخدام حوالي 25,000 من وحدات معالجة الرسومات Nvidia A100 ضمن 128 مجموعة.
تقوم معظم المشاريع الرئيسية الآن بدمج المجموعات لتحقيق الحوسبة المتوازية. تتعاون io.net مع مشاريع مثل Render وFilecoin وAethir لإدخال المزيد من وحدات معالجة الرسوميات في شبكتها، وقد نشرت أكثر من 3800 مجموعة في الربع الأول من عام 24. على الرغم من أن Render لا يدعم المجموعات، إلا أن طريقة عمله مشابهة، حيث يتم تقسيم الإطار الفردي إلى عدة عقد لمعالجتها في نفس الوقت. تدعم Phala حالياً وحدات المعالجة المركزية فقط، ولكنها تسمح بتجميع وحدات المعالجة المركزية.
خصوصية البيانات
تتطلب تطوير نماذج الذكاء الاصطناعي استخدام مجموعات بيانات كبيرة، قد تحتوي هذه البيانات على معلومات حساسة. إن ضمان خصوصية البيانات أمر بالغ الأهمية لإعادة السيطرة على البيانات إلى مزودي البيانات.
تستخدم معظم المشاريع نوعًا ما من تشفير البيانات لحماية خصوصية البيانات. تستخدم Render التشفير ومعالجة التجزئة عند إصدار نتائج الرندر، وتعتمد io.net وGensyn على تشفير البيانات، بينما تستخدم Akash مصادقة mTLS.
أعلنت io.net مؤخرًا عن تعاونها مع شبكة Mind لإطلاق التشفير المتجانس بالكامل (FHE)، مما يسمح بمعالجة البيانات المشفرة دون الحاجة إلى فك تشفيرها مسبقًا. قدمت شبكة Phala بيئة التنفيذ الموثوقة (TEE)، لمنع العمليات الخارجية من الوصول إلى البيانات أو تعديلها.
إثبات إكمال الحساب وفحص الجودة
نظرًا لأن وحدات معالجة الرسومات (GPU) التي تقدمها هذه المشاريع يمكن استخدامها في مجموعة واسعة من الخدمات، من عرض الرسوم إلى الحسابات الذكية، لذلك من الضروري إكمال آلية التحقق من الصحة وفحص الجودة.
تقوم Gensyn و Aethir بإنشاء إثباتات بعد الانتهاء من الحسابات، وتوضح إثباتات io.net أن أداء GPU المستأجر قد تم استخدامه بشكل كامل. ستقوم Gensyn و Aethir بإجراء فحص جودة للحسابات المنجزة. تقترح Render استخدام عملية حل النزاعات. بعد الانتهاء من Phala، سيتم إنشاء إثبات TEE لضمان تنفيذ الوكلاء الذكاء الاصطناعي للعمليات المطلوبة على الشبكة.
! تقاطع الذكاء الاصطناعي و DePIN
بيانات الإحصائيات للأجهزة
| | ريندر | أكاش | io.net | جينسين | أيثير | فالا | |-------------|--------|-------|--------|------------|------------|--------| | عدد وحدات معالجة الرسوميات | 5600 | 384 | 38177 | - | 40000+ | - | | عدد وحدات المعالجة المركزية | 114 | 14672 | 5433 | - | - | 30000+ | | عدد H100/A100 | - | 157 | 2330 | - | 2000+ | - | | تكلفة H100/ساعة | - | $1.46 | $1.19 | - | - | - | | تكلفة A100/ساعة | - | $1.37 | $1.50 | $0.55 ( متوقع ) | $0.33 ( متوقع ) | - |
متطلبات GPU عالية الأداء
تتطلب تدريب نماذج الذكاء الاصطناعي وحدات معالجة الرسومات (GPU) ذات الأداء الأمثل، مثل A100 و H100 من Nvidia. إن أداء H100 في الاستدلال أسرع بأربعة أضعاف من A100، وقد أصبحت الخيار المفضل، خاصةً بالنسبة للشركات الكبيرة التي تقوم بتدريب نماذج اللغة الكبيرة الخاصة بها.
يجب أن تنافس مزودي سوق GPU اللامركزي نظرائهم في Web2، ليس فقط من خلال تقديم أسعار أقل، ولكن أيضًا من خلال تلبية الاحتياجات الفعلية للسوق. في عام 2023، قامت Nvidia بتسليم أكثر من 500,000 وحدة H100 لشركات التكنولوجيا الكبرى اللامركزية، مما جعل الحصول على نفس الأجهزة أمرًا صعبًا.
تمتلك io.net و Aethir أكثر من 2000 وحدة H100 و A100 لكل منهما، مما يجعلها أكثر ملاءمة لحسابات النماذج الكبيرة. بناءً على حجم الكلاستر المطلوب من قبل المطورين، فإن تكاليف هذه الخدمات GPU اللامركزية أصبحت الآن أقل بكثير من خدمات GPU المركزية.
على الرغم من أن مجموعة GPU المتصلة بالشبكة محدودة من حيث الذاكرة، إلا أن الشبكة اللامركزية للـ GPU لا تزال توفر قوة حسابية قوية وقابلية للتوسع لمهام الحوسبة الموزعة للمستخدمين الذين يحتاجون إلى المرونة وقدرة توزيع عبء العمل عبر عدة عقد.
توفير وحدة معالجة الرسوميات/وحدة المعالجة المركزية من فئة المستهلك
تلعب وحدة المعالجة المركزية أيضًا دورًا مهمًا في تدريب نماذج الذكاء الاصطناعي، حيث يمكن استخدامها في عدة مراحل بدءًا من إعداد البيانات وصولاً إلى إدارة موارد الذاكرة. يمكن استخدام وحدات معالجة الرسوميات من فئة المستهلك في المهام الأقل كثافة، مثل تعديل النماذج المدربة مسبقًا أو تدريب نماذج صغيرة على مجموعات بيانات صغيرة.
نظرًا لأن أكثر من 85% من موارد GPU للمستهلكين في حالة خمول، يمكن لمشاريع مثل Render و Akash و io.net أيضًا خدمة هذه السوق. يوفر تقديم هذه الخيارات لهم تطوير موقعهم في السوق، مع التركيز على الحوسبة الشديدة الكثافة أو العرض الصغير أو مزيج من الاثنين.
! تقاطع الذكاء الاصطناعي و DePIN
الاستنتاج
لا يزال مجال AI DePIN ناشئًا نسبيًا ويواجه تحدياته الخاصة. ومع ذلك، فإن المهام وعدد الأجهزة التي يتم تنفيذها على هذه الشبكات اللامركزية GPU قد زادت بشكل ملحوظ، مما يبرز الطلب المتزايد على بدائل موارد الأجهزة من مزودي خدمات Web2 السحابية. في الوقت نفسه، فإن زيادة عدد مزودي الأجهزة تُظهر أيضًا وجود إمدادات لم تُستغل بشكل كافٍ في السابق. وهذا يُثبت بشكل أكبر ملاءمة منتجات شبكة AI DePIN للسوق، حيث تعالج بفعالية التحديات المتعلقة بالطلب والعرض.
في المستقبل، من المتوقع أن تتطور الذكاء الاصطناعي ليصبح سوقًا مزدهرًا بقيمة تريليونات الدولارات. ستلعب هذه الشبكات اللامركزية من وحدات معالجة الرسومات دورًا رئيسيًا في توفير بدائل حسابية فعالة من حيث التكلفة للمطورين. من خلال سد الفجوة باستمرار بين الطلب والعرض، ستساهم هذه الشبكات بشكل كبير في الشكل المستقبلي للبنية التحتية للذكاء الاصطناعي والحوسبة.
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN