تقاطع الذكاء الاصطناعي و DePIN: ظهور شبكة GPU اللامركزية
أصبحت AI وDePIN اتجاهات شائعة في مجال Web3 مؤخرًا، حيث وصلت قيمتها السوقية إلى 30 مليار دولار و23 مليار دولار على التوالي. ستتناول هذه المقالة مجالات التقاطع بين كلاهما، وتستكشف تطور البروتوكولات ذات الصلة.
في تقنية AI ، تمكين AI من خلال شبكة DePIN من خلال توفير موارد الحوسبة. نظرًا لنقص وحدات معالجة الرسوميات (GPU) الناتج عن الشركات التقنية الكبرى ، يصعب على المطورين الآخرين الحصول على وحدات معالجة الرسوميات (GPU) الكافية لحساب نماذج AI. الطريقة التقليدية هي اختيار مزودي الخدمة السحابية المركزية ، ولكن يجب التوقيع على عقود طويلة الأجل غير مرنة وذات كفاءة منخفضة.
توفر DePIN بديلاً أكثر مرونة وتكلفة فعالة، من خلال تحفيز مساهمات الموارد من خلال مكافآت الرموز. يجمع DePIN في مجال الذكاء الاصطناعي موارد GPU الفردية في مراكز البيانات، مما يوفر إمدادًا موحدًا للمستخدمين. هذا لا يوفر فقط خدمات مخصصة حسب الطلب للمطورين، ولكنه يخلق أيضًا دخلًا إضافيًا لمالكي GPU.
توجد أنواع متعددة من شبكات AI DePIN في السوق، ستقوم هذه المقالة بتحليل وظائف وبنود وإنجازات كل بروتوكول، بالإضافة إلى الفروقات بينها.
نظرة عامة على شبكة AI DePIN
ريندر
Render هو رائد شبكة حسابات GPU P2P، بدأ في التركيز على إنشاء المحتوى والتصيير، ثم توسع إلى مهام حسابات الذكاء الاصطناعي من خلال دمج أدوات مثل Stable Diffusion.
اللمحات:
تأسست من قبل شركة OTOY الحائزة على جائزة الأوسكار للتكنولوجيا
تستخدم شركات الترفيه العملاقة مثل بارامونت بيكتشرز وPUBG شبكة GPU الخاصة بها
التعاون مع Stability AI لدمج نماذج الذكاء الاصطناعي مع سير العمل لتصيير المحتوى ثلاثي الأبعاد
الموافقة على عدة عملاء حوسبة، دمج المزيد من شبكات DePIN GPU
أكاش
تعتبر Akash منصة "السحاب الفائق" التي تدعم التخزين، وحوسبة GPU وCPU، بديلاً لمزودي الخدمات التقليديين مثل AWS. من خلال استخدام منصة الحاويات وعقد الحوسبة المدارة بواسطة Kubernetes، يمكن نشر أي تطبيق سحابي أصلي بسلاسة.
الميزات:
موجه نحو مجموعة واسعة من المهام الحاسوبية من الحوسبة العامة إلى استضافة الشبكة
AkashML تتيح تشغيل أكثر من 1.5万个 نموذج على Hugging Face
تطبيقات مثل روبوت الدردشة LLM من Mistral AI و SDXL من Stability AI
الميتافيرس، نشر الذكاء الاصطناعي ومنصة التعلم الفيدرالي تستخدم Supercloud الخاصة بها
io.net
يوفر io.net مجموعة سحابية موزعة من GPUs، مخصصة لسيناريوهات الذكاء الاصطناعي وتعلم الآلة. يدمج موارد GPUs من مراكز البيانات وعمال التعدين بالعملات المشفرة وغيرها من المجالات.
مضيئه:
IO-SDK متوافق مع أطر عمل مثل PyTorch، ويمكن أن تتوسع البنية متعددة الطبقات تلقائيًا حسب الحاجة
يدعم إنشاء 3 أنواع مختلفة من المجموعات، والتشغيل خلال دقيقتين
التعاون مع Render و Filecoin لتكامل المزيد من موارد GPU
جينسن
تقدم Gensyn قدرات حساب GPU تركز على تعلم الآلة والتعلم العميق. زيادة كفاءة التحقق من خلال آليات مثل إثبات التعلم.
التسليط الضوء:
تكلفة ساعة V100 GPU حوالي 0.40 دولار، مما يوفر الكثير من التكاليف
من خلال إثبات التراكم، يمكن تعديل النموذج الأساسي المدرب مسبقًا
سيقدم النموذج الأساسي اللامركزية، ويمتلكه العالم، ويوفر ميزات إضافية
أثير
Aethir مخصص لتشغيل وحدات معالجة الرسومات على مستوى المؤسسات، ويركز على مجالات الحوسبة الكثيفة مثل الذكاء الاصطناعي، وتعلم الآلة، والألعاب السحابية. ينقل عبء العمل من المحلي إلى السحابة من خلال الحاويات، لتحقيق تأخير منخفض.
الملامح:
التوسع في خدمات الهاتف السحابي، بالتعاون مع APHONE لإطلاق هاتف سحابي لامركزي
إقامة شراكات واسعة مع عمالقة Web2 مثل NVIDIA وSuper Micro
في مجال Web3 بالتعاون مع عدة شركات مثل CARV و Magic Eden
شبكة فالا
تعمل شبكة فالا كطبقة تنفيذية لحلول الذكاء الاصطناعي Web3 ، من خلال بيئة تنفيذ موثوقة (TEE) على معالجة مشكلات الخصوصية. مما يتيح لوكلاء الذكاء الاصطناعي أن يتم التحكم فيهم بواسطة العقود الذكية على السلسلة.
المميزات:
العمل كبروتوكول مساعد للحوسبة القابلة للتحقق، مما يتيح لوكلاء الذكاء الاصطناعي استخدام الموارد على السلسلة
يمكن الحصول على عقود الوكلاء الذكاء الاصطناعي من Redpill مثل OpenAI وغيرها من LLMs الرائدة
المستقبل يتضمن أنظمة الإثبات المتعددة مثل zk-proofs و MPC و FHE
التخطيط لدعم GPU TEE مثل H100، لتعزيز القدرة الحسابية
مقارنة المشاريع
| | ريندر | أكاش | io.net | جينسين | آثير | فالا |
|--------|-------------|-------------------|---------------------|---------|---------------|----------|
| الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية |
| التركيز على الأعمال | رسم بياني وذكاء اصطناعي | حوسبة سحابية، رسم وذكاء اصطناعي | ذكاء اصطناعي | ذكاء اصطناعي | ذكاء اصطناعي، ألعاب سحابية واتصالات | تنفيذ ذكاء اصطناعي على السلسلة |
| نوع المهام الذكية | استنتاج | ثنائي الاتجاه | ثنائي الاتجاه | تدريب | تدريب | تنفيذ |
| تسعير العمل | بناءً على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق |
| بلوكتشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت |
| خصوصية البيانات | التشفير&التجزئة | مصادقة mTLS | تشفير البيانات | خريطة آمنة | تشفير | TEE |
| رسوم العمل | 0.5-5%/عمل | 20% USDC، 4% AKT | 2% USDC، 0.25% احتياطي | رسوم منخفضة | 20%/جلسة | على أساس النسبة مع الرهن |
| الأمان | إثبات التقديم | إثبات الحصة | إثبات الحسابات | إثبات الحصة | إثبات القدرة على التقديم | موروث من سلسلة الترحيل |
| إثبات الإنجاز | - | - | إثبات قفل الوقت | إثبات التعلم | إثبات العمل بالتقديم | إثبات TEE |
| ضمان الجودة | آلية النزاع | - | - | المراقبون والتبليغ | تحقق العقدة | إثبات عن بُعد |
| مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
إطار الحساب الموزع ينفذ مجموعة GPU، مما يوفر تدريبًا أكثر كفاءة، ويعزز القابلية للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وغالبًا ما يعتمد على الحساب الموزع. على سبيل المثال، يحتوي نموذج GPT-4 من OpenAI على أكثر من 1.8 تريليون معلمة، واستغرق 3-4 أشهر، باستخدام 128 مجموعة من حوالي 25,000 وحدة معالجة رسومات Nvidia A100.
تجمع معظم المشاريع الآن الكتل لتحقيق الحوسبة المتوازية. تعاون io.net مع مشاريع أخرى، وقد تم نشر أكثر من 3,800 مجموعة في الربع الأول. على الرغم من أن Render لا تدعم المجموعات، إلا أنها تقوم بتقسيم الإطار الواحد إلى عدة عقد لمعالجته في وقت واحد. تدعم Phala حاليًا وحدات المعالجة المركزية فقط، لكنها تسمح بتجميع وحدات المعالجة المركزية.
إطار التجميع مهم لشبكات سير عمل الذكاء الاصطناعي، لكن عدد ونوع وحدات معالجة الرسوميات في التجميع لتلبية احتياجات مطوري الذكاء الاصطناعي هو مسألة أخرى.
خصوصية البيانات
تطوير نماذج الذكاء الاصطناعي يتطلب مجموعات بيانات كبيرة، وقد涉及 معلومات حساسة. طرق خصوصية البيانات ضرورية لحماية حقوق التحكم في البيانات.
تستخدم معظم المشاريع نوعًا من التشفير لحماية خصوصية البيانات. تستخدم Render التشفير والتجزئة عند نشر نتائج التقديم. يعتمد io.net و Gensyn على تشفير البيانات. تستخدم Akash مصادقة mTLS، مما يسمح فقط لمقدمي الخدمات المحددين باستقبال البيانات.
أطلقت io.net مؤخرًا شراكة مع شبكة Mind لإطلاق تشفير متجانس تمامًا (FHE)، مما يسمح بمعالجة البيانات المشفرة مباشرة. هذه الطريقة تحمي الخصوصية بشكل أفضل من تقنيات التشفير الحالية.
تقدم شبكة فالا بيئة تنفيذ موثوقة ( TEE )، مما يعزل ويحمي البيانات من الوصول الخارجي أو التعديل. كما أنها تستخدم أيضًا إثباتات zk، لدمج برامج RiscZero zkVM.
إثبات الحسابات المكتملة وفحص الجودة
يثبت إثبات إكمال الحساب أن GPU قد تم استخدامه فعلاً للخدمات المطلوبة، وأن فحص الجودة مفيد للمستخدمين.
Gensyn و Aethir توليد إثباتات العمل، io.net تثبت أن أداء GPU قد تم الاستفادة منه بشكل كامل. Gensyn و Aethir يقومان بعمليات فحص الجودة. Gensyn يعيد تشغيل بعض الإثباتات باستخدام المصدّقين، ويعتبر المبلغون كفحص إضافي. Aethir يستخدم نقاط التفتيش لتقييم جودة الخدمة. Render يقترح استخدام عملية تسوية المنازعات لمعالجة العقد المشكلة. Phala تولد إثباتات TEE، لضمان تنفيذ وكلاء الذكاء الاصطناعي للعمليات المطلوبة.
تميل نماذج الذكاء الاصطناعي إلى استخدام وحدات معالجة الرسوميات عالية الأداء مثل Nvidia A100 و H100. أداء H100 في الاستدلال هو 4 أضعاف A100، مما يجعله الخيار المفضل للشركات الكبرى لتدريب LLM.
يجب على مزودي سوق GPU اللامركزية أن يقدموا أسعارًا أقل فحسب، بل يجب عليهم أيضًا تلبية الاحتياجات الفعلية. في عام 2023، سلمت Nvidia أكثر من 500,000 وحدة H100 لشركات التكنولوجيا الكبرى، مما جعل الحصول على الأجهزة المماثلة أمرًا صعبًا. من المهم أن نأخذ في الاعتبار عدد الأجهزة التي يمكن إدخالها بتكلفة منخفضة.
أكا ش لديها فقط أكثر من 150 من H100 و A100، بينما io.net و Aethir لديهما أكثر من 2000. عادةً ما يتطلب نموذج LLM المدرب مسبقًا من 248 إلى أكثر من 2000 مجموعة GPU، المشاريع الأخيرة أكثر ملاءمة لحسابات النماذج الكبيرة.
تكلفة خدمات GPU اللامركزية حاليا أقل من خدمات المركزية. تدعي Gensyn و Aethir أن تكلفة استئجار أجهزة من فئة A100 تقل عن 1 دولار في الساعة، ولكن لا يزال يتعين التحقق من ذلك.
رغم أن الاتصال بشبكة GPU المتجمعات رخيص، إلا أن الذاكرة محدودة. يدعم NVLink الاتصال المباشر بين GPU، مما يجعله مناسبًا للنماذج اللغوية الكبيرة ذات المعلمات الكثيرة ومجموعات البيانات الكبيرة.
على الرغم من ذلك، فإن شبكة GPU اللامركزية توفر قدرة قوية وقابلية التوسع للحوسبة الموزعة، مما يفتح أمام المزيد من حالات الاستخدام في الذكاء الاصطناعي وتعلم الآلة.
تعتبر وحدة المعالجة المركزية مهمة أيضًا في تدريب نماذج الذكاء الاصطناعي، حيث تُستخدم في معالجة البيانات وإدارة الذاكرة. يمكن استخدام وحدات معالجة الرسوميات من فئة المستهلك لتعديل النماذج المدربة مسبقًا أو للتدريب على نطاق صغير.
نظرًا لأن أكثر من 85% من مستهلكي وحدات معالجة الرسومات غير مستخدمة، يمكن لمشاريع مثل Render و Akash و io.net خدمة هذا السوق أيضًا. توفر هذه الخيارات لها إمكانية تطوير مواقع سوق فريدة، مع التركيز على الحوسبة الكثيفة على نطاق واسع، أو العرض الصغير العام، أو النماذج المختلطة.
الاستنتاج
مجال DePIN الذكاء الاصطناعي لا يزال جديدًا، ويواجه تحديات. على سبيل المثال، تم اتهام io.net بتزوير عدد وحدات معالجة الرسومات، ثم تم حل المشكلة من خلال إدخال إثبات العمل.
على الرغم من ذلك، زاد عدد المهام والأجهزة التي تُنفذ على شبكة GPU اللامركزية بشكل ملحوظ، مما يبرز زيادة الطلب على بدائل خدمات السحابة Web2. كما أن الزيادة في عدد مزودي الأجهزة تُظهر العرض الذي لم يُستغل بشكل كافٍ من قبل. وهذا يثبت توافق منتج شبكة AI DePIN مع السوق، حيث يُعالج بفعالية تحديات الطلب والعرض.
تتطلع إلى المستقبل، ستتطور الذكاء الاصطناعي ليصبح سوقًا مزدهرًا بقيمة تريليونات الدولارات، وستوفر هذه الشبكات الموزعة من وحدات معالجة الرسوميات بدائل اقتصادية فعالة للمطورين. من خلال تقليص الفجوة بين الطلب والعرض باستمرار، ستساهم هذه الشبكات بشكل كبير في مستقبل الذكاء الاصطناعي والبنية التحتية للحوسبة.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 7
أعجبني
7
4
مشاركة
تعليق
0/400
MEVHunter
· منذ 13 س
مستثمر التجزئة أيضًا يمكنه الحصول على جزء من الكعكة
ظهور AI DePIN: شبكة GPU اللامركزية تعيد تشكيل بنية الحوسبة التحتية
تقاطع الذكاء الاصطناعي و DePIN: ظهور شبكة GPU اللامركزية
أصبحت AI وDePIN اتجاهات شائعة في مجال Web3 مؤخرًا، حيث وصلت قيمتها السوقية إلى 30 مليار دولار و23 مليار دولار على التوالي. ستتناول هذه المقالة مجالات التقاطع بين كلاهما، وتستكشف تطور البروتوكولات ذات الصلة.
! تقاطع الذكاء الاصطناعي و DePIN
في تقنية AI ، تمكين AI من خلال شبكة DePIN من خلال توفير موارد الحوسبة. نظرًا لنقص وحدات معالجة الرسوميات (GPU) الناتج عن الشركات التقنية الكبرى ، يصعب على المطورين الآخرين الحصول على وحدات معالجة الرسوميات (GPU) الكافية لحساب نماذج AI. الطريقة التقليدية هي اختيار مزودي الخدمة السحابية المركزية ، ولكن يجب التوقيع على عقود طويلة الأجل غير مرنة وذات كفاءة منخفضة.
توفر DePIN بديلاً أكثر مرونة وتكلفة فعالة، من خلال تحفيز مساهمات الموارد من خلال مكافآت الرموز. يجمع DePIN في مجال الذكاء الاصطناعي موارد GPU الفردية في مراكز البيانات، مما يوفر إمدادًا موحدًا للمستخدمين. هذا لا يوفر فقط خدمات مخصصة حسب الطلب للمطورين، ولكنه يخلق أيضًا دخلًا إضافيًا لمالكي GPU.
توجد أنواع متعددة من شبكات AI DePIN في السوق، ستقوم هذه المقالة بتحليل وظائف وبنود وإنجازات كل بروتوكول، بالإضافة إلى الفروقات بينها.
نظرة عامة على شبكة AI DePIN
ريندر
Render هو رائد شبكة حسابات GPU P2P، بدأ في التركيز على إنشاء المحتوى والتصيير، ثم توسع إلى مهام حسابات الذكاء الاصطناعي من خلال دمج أدوات مثل Stable Diffusion.
اللمحات:
أكاش
تعتبر Akash منصة "السحاب الفائق" التي تدعم التخزين، وحوسبة GPU وCPU، بديلاً لمزودي الخدمات التقليديين مثل AWS. من خلال استخدام منصة الحاويات وعقد الحوسبة المدارة بواسطة Kubernetes، يمكن نشر أي تطبيق سحابي أصلي بسلاسة.
الميزات:
io.net
يوفر io.net مجموعة سحابية موزعة من GPUs، مخصصة لسيناريوهات الذكاء الاصطناعي وتعلم الآلة. يدمج موارد GPUs من مراكز البيانات وعمال التعدين بالعملات المشفرة وغيرها من المجالات.
مضيئه:
جينسن
تقدم Gensyn قدرات حساب GPU تركز على تعلم الآلة والتعلم العميق. زيادة كفاءة التحقق من خلال آليات مثل إثبات التعلم.
التسليط الضوء:
أثير
Aethir مخصص لتشغيل وحدات معالجة الرسومات على مستوى المؤسسات، ويركز على مجالات الحوسبة الكثيفة مثل الذكاء الاصطناعي، وتعلم الآلة، والألعاب السحابية. ينقل عبء العمل من المحلي إلى السحابة من خلال الحاويات، لتحقيق تأخير منخفض.
الملامح:
شبكة فالا
تعمل شبكة فالا كطبقة تنفيذية لحلول الذكاء الاصطناعي Web3 ، من خلال بيئة تنفيذ موثوقة (TEE) على معالجة مشكلات الخصوصية. مما يتيح لوكلاء الذكاء الاصطناعي أن يتم التحكم فيهم بواسطة العقود الذكية على السلسلة.
المميزات:
مقارنة المشاريع
| | ريندر | أكاش | io.net | جينسين | آثير | فالا | |--------|-------------|-------------------|---------------------|---------|---------------|----------| | الأجهزة | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات \ & وحدة المعالجة المركزية | وحدة معالجة الرسومات | وحدة معالجة الرسومات | وحدة المعالجة المركزية | | التركيز على الأعمال | رسم بياني وذكاء اصطناعي | حوسبة سحابية، رسم وذكاء اصطناعي | ذكاء اصطناعي | ذكاء اصطناعي | ذكاء اصطناعي، ألعاب سحابية واتصالات | تنفيذ ذكاء اصطناعي على السلسلة | | نوع المهام الذكية | استنتاج | ثنائي الاتجاه | ثنائي الاتجاه | تدريب | تدريب | تنفيذ | | تسعير العمل | بناءً على الأداء | مزاد عكسي | تسعير السوق | تسعير السوق | نظام المناقصات | حساب الحقوق | | بلوكتشين | سولانا | كوزموس | سولانا | جينسين | أربيتروم | بولكادوت | | خصوصية البيانات | التشفير&التجزئة | مصادقة mTLS | تشفير البيانات | خريطة آمنة | تشفير | TEE | | رسوم العمل | 0.5-5%/عمل | 20% USDC، 4% AKT | 2% USDC، 0.25% احتياطي | رسوم منخفضة | 20%/جلسة | على أساس النسبة مع الرهن | | الأمان | إثبات التقديم | إثبات الحصة | إثبات الحسابات | إثبات الحصة | إثبات القدرة على التقديم | موروث من سلسلة الترحيل | | إثبات الإنجاز | - | - | إثبات قفل الوقت | إثبات التعلم | إثبات العمل بالتقديم | إثبات TEE | | ضمان الجودة | آلية النزاع | - | - | المراقبون والتبليغ | تحقق العقدة | إثبات عن بُعد | | مجموعة GPU | لا | نعم | نعم | نعم | نعم | لا |
! تقاطع الذكاء الاصطناعي و DePIN
الأهمية
توفر التجميع والحساب المتوازي
إطار الحساب الموزع ينفذ مجموعة GPU، مما يوفر تدريبًا أكثر كفاءة، ويعزز القابلية للتوسع. يتطلب تدريب نماذج الذكاء الاصطناعي المعقدة قدرة حسابية قوية، وغالبًا ما يعتمد على الحساب الموزع. على سبيل المثال، يحتوي نموذج GPT-4 من OpenAI على أكثر من 1.8 تريليون معلمة، واستغرق 3-4 أشهر، باستخدام 128 مجموعة من حوالي 25,000 وحدة معالجة رسومات Nvidia A100.
تجمع معظم المشاريع الآن الكتل لتحقيق الحوسبة المتوازية. تعاون io.net مع مشاريع أخرى، وقد تم نشر أكثر من 3,800 مجموعة في الربع الأول. على الرغم من أن Render لا تدعم المجموعات، إلا أنها تقوم بتقسيم الإطار الواحد إلى عدة عقد لمعالجته في وقت واحد. تدعم Phala حاليًا وحدات المعالجة المركزية فقط، لكنها تسمح بتجميع وحدات المعالجة المركزية.
إطار التجميع مهم لشبكات سير عمل الذكاء الاصطناعي، لكن عدد ونوع وحدات معالجة الرسوميات في التجميع لتلبية احتياجات مطوري الذكاء الاصطناعي هو مسألة أخرى.
خصوصية البيانات
تطوير نماذج الذكاء الاصطناعي يتطلب مجموعات بيانات كبيرة، وقد涉及 معلومات حساسة. طرق خصوصية البيانات ضرورية لحماية حقوق التحكم في البيانات.
تستخدم معظم المشاريع نوعًا من التشفير لحماية خصوصية البيانات. تستخدم Render التشفير والتجزئة عند نشر نتائج التقديم. يعتمد io.net و Gensyn على تشفير البيانات. تستخدم Akash مصادقة mTLS، مما يسمح فقط لمقدمي الخدمات المحددين باستقبال البيانات.
أطلقت io.net مؤخرًا شراكة مع شبكة Mind لإطلاق تشفير متجانس تمامًا (FHE)، مما يسمح بمعالجة البيانات المشفرة مباشرة. هذه الطريقة تحمي الخصوصية بشكل أفضل من تقنيات التشفير الحالية.
تقدم شبكة فالا بيئة تنفيذ موثوقة ( TEE )، مما يعزل ويحمي البيانات من الوصول الخارجي أو التعديل. كما أنها تستخدم أيضًا إثباتات zk، لدمج برامج RiscZero zkVM.
إثبات الحسابات المكتملة وفحص الجودة
يثبت إثبات إكمال الحساب أن GPU قد تم استخدامه فعلاً للخدمات المطلوبة، وأن فحص الجودة مفيد للمستخدمين.
Gensyn و Aethir توليد إثباتات العمل، io.net تثبت أن أداء GPU قد تم الاستفادة منه بشكل كامل. Gensyn و Aethir يقومان بعمليات فحص الجودة. Gensyn يعيد تشغيل بعض الإثباتات باستخدام المصدّقين، ويعتبر المبلغون كفحص إضافي. Aethir يستخدم نقاط التفتيش لتقييم جودة الخدمة. Render يقترح استخدام عملية تسوية المنازعات لمعالجة العقد المشكلة. Phala تولد إثباتات TEE، لضمان تنفيذ وكلاء الذكاء الاصطناعي للعمليات المطلوبة.
بيانات إحصائيات الأجهزة
| | ريندر | أكاش | io.net | جينسين | أثير | فالا | |-------------|--------|-------|--------|------------|------------|--------| | عدد وحدات معالجة الرسوميات | 5600 | 384 | 38177 | - | 40000+ | - | | عدد وحدة المعالجة المركزية | 114 | 14672 | 5433 | - | - | 30000+ | | عدد H100/A100 | - | 157 | 2330 | - | 2000+ | - | | تكلفة H100/ساعة | - | $1.46 | $1.19 | - | - | - | | تكلفة A100/ساعة | - | $1.37 | $1.50 | $0.55 ( متوقع ) | $0.33 ( متوقع ) | - |
! تقاطع الذكاء الاصطناعي و DePIN
الطلب على وحدات معالجة الرسوميات عالية الأداء
تميل نماذج الذكاء الاصطناعي إلى استخدام وحدات معالجة الرسوميات عالية الأداء مثل Nvidia A100 و H100. أداء H100 في الاستدلال هو 4 أضعاف A100، مما يجعله الخيار المفضل للشركات الكبرى لتدريب LLM.
يجب على مزودي سوق GPU اللامركزية أن يقدموا أسعارًا أقل فحسب، بل يجب عليهم أيضًا تلبية الاحتياجات الفعلية. في عام 2023، سلمت Nvidia أكثر من 500,000 وحدة H100 لشركات التكنولوجيا الكبرى، مما جعل الحصول على الأجهزة المماثلة أمرًا صعبًا. من المهم أن نأخذ في الاعتبار عدد الأجهزة التي يمكن إدخالها بتكلفة منخفضة.
أكا ش لديها فقط أكثر من 150 من H100 و A100، بينما io.net و Aethir لديهما أكثر من 2000. عادةً ما يتطلب نموذج LLM المدرب مسبقًا من 248 إلى أكثر من 2000 مجموعة GPU، المشاريع الأخيرة أكثر ملاءمة لحسابات النماذج الكبيرة.
تكلفة خدمات GPU اللامركزية حاليا أقل من خدمات المركزية. تدعي Gensyn و Aethir أن تكلفة استئجار أجهزة من فئة A100 تقل عن 1 دولار في الساعة، ولكن لا يزال يتعين التحقق من ذلك.
رغم أن الاتصال بشبكة GPU المتجمعات رخيص، إلا أن الذاكرة محدودة. يدعم NVLink الاتصال المباشر بين GPU، مما يجعله مناسبًا للنماذج اللغوية الكبيرة ذات المعلمات الكثيرة ومجموعات البيانات الكبيرة.
على الرغم من ذلك، فإن شبكة GPU اللامركزية توفر قدرة قوية وقابلية التوسع للحوسبة الموزعة، مما يفتح أمام المزيد من حالات الاستخدام في الذكاء الاصطناعي وتعلم الآلة.
! تقاطع الذكاء الاصطناعي و DePIN
تقديم GPU/CPU من الفئة الاستهلاكية
تعتبر وحدة المعالجة المركزية مهمة أيضًا في تدريب نماذج الذكاء الاصطناعي، حيث تُستخدم في معالجة البيانات وإدارة الذاكرة. يمكن استخدام وحدات معالجة الرسوميات من فئة المستهلك لتعديل النماذج المدربة مسبقًا أو للتدريب على نطاق صغير.
نظرًا لأن أكثر من 85% من مستهلكي وحدات معالجة الرسومات غير مستخدمة، يمكن لمشاريع مثل Render و Akash و io.net خدمة هذا السوق أيضًا. توفر هذه الخيارات لها إمكانية تطوير مواقع سوق فريدة، مع التركيز على الحوسبة الكثيفة على نطاق واسع، أو العرض الصغير العام، أو النماذج المختلطة.
الاستنتاج
مجال DePIN الذكاء الاصطناعي لا يزال جديدًا، ويواجه تحديات. على سبيل المثال، تم اتهام io.net بتزوير عدد وحدات معالجة الرسومات، ثم تم حل المشكلة من خلال إدخال إثبات العمل.
على الرغم من ذلك، زاد عدد المهام والأجهزة التي تُنفذ على شبكة GPU اللامركزية بشكل ملحوظ، مما يبرز زيادة الطلب على بدائل خدمات السحابة Web2. كما أن الزيادة في عدد مزودي الأجهزة تُظهر العرض الذي لم يُستغل بشكل كافٍ من قبل. وهذا يثبت توافق منتج شبكة AI DePIN مع السوق، حيث يُعالج بفعالية تحديات الطلب والعرض.
تتطلع إلى المستقبل، ستتطور الذكاء الاصطناعي ليصبح سوقًا مزدهرًا بقيمة تريليونات الدولارات، وستوفر هذه الشبكات الموزعة من وحدات معالجة الرسوميات بدائل اقتصادية فعالة للمطورين. من خلال تقليص الفجوة بين الطلب والعرض باستمرار، ستساهم هذه الشبكات بشكل كبير في مستقبل الذكاء الاصطناعي والبنية التحتية للحوسبة.
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN
! تقاطع الذكاء الاصطناعي و DePIN