مؤخراً، حقق Manus رقماً قياسياً جديداً في اختبار GAIA، حيث تفوق أداؤه على نماذج اللغة الكبيرة من نفس الفئة. تعني هذه الإنجاز أن Manus يمتلك القدرة على معالجة المهام المعقدة بشكل مستقل، مثل المفاوضات التجارية عبر الوطنية، والتي تشمل تحليل العقود، والتخطيط الاستراتيجي، وصياغة الحلول.
بالمقارنة مع الأنظمة التقليدية، تتمثل مزايا Manus بشكل رئيسي في ثلاثة جوانب: تقسيم الأهداف الديناميكي، الاستدلال عبر الأنماط، وتعزيز الذاكرة التعلم. يمكنه تقسيم المهام الضخمة إلى مئات من المهام الفرعية القابلة للتنفيذ، ومعالجة أنواع متعددة من البيانات، وزيادة كفاءة اتخاذ القرار الخاصة به باستمرار من خلال التعلم المعزز، وتقليل احتمال حدوث الأخطاء.
أثارت تقدم Manus مرة أخرى مناقشة في الصناعة حول مسار تطوير الذكاء الاصطناعي: هل المستقبل يتجه نحو نموذج موحد للذكاء الاصطناعي العام (AGI) أم نموذج التعاون لأنظمة متعددة الوكالات (MAS)؟
تتناول هذه المسألة مفهوم تصميم Manus، مما يوحي باتجاهين محتملين للتطور:
مسار AGI: من خلال تحسين قدرات نظام ذكي واحد باستمرار، ليقترب تدريجياً من مستوى اتخاذ القرار الشامل للبشر.
مسار MAS: تعيين Manus كمنسق رئيسي، يقود العديد من الوكلاء المتخصصين للعمل معًا.
على السطح، هذه مناقشة حول المسار التكنولوجي، لكنها تعكس في جوهرها التناقضات الأساسية في تطوير الذكاء الاصطناعي: كيف نحقق التوازن بين الكفاءة والأمان. مع اقتراب الأنظمة الذكية الفردية من الذكاء العام الاصطناعي، تزداد مخاطر عدم الشفافية في عمليات اتخاذ القرار؛ بينما يمكن أن يؤدي التعاون بين الوكلاء المتعددين إلى تقليل المخاطر، إلا أنه قد يفوت الفرص الحاسمة في اتخاذ القرار بسبب تأخيرات الاتصال.
إن تطور Manus يضخم بشكل غير محسوس المخاطر المتأصلة في تطور الذكاء الاصطناعي. على سبيل المثال، في السيناريو الطبي، يحتاج Manus إلى الوصول الفوري إلى البيانات الحساسة للمرضى؛ وفي المفاوضات المالية، قد تتعلق المعلومات بمعلومات غير معلن عنها للشركات. بالإضافة إلى ذلك، هناك مشكلة تحيز الخوارزميات، مثل تقديم اقتراحات رواتب غير عادلة لمجموعات معينة خلال عملية التوظيف، أو معدل خطأ مرتفع في تقييم الشروط المتعلقة بالصناعات الناشئة أثناء مراجعة العقود القانونية. وهناك خطر آخر يستحق الانتباه وهو الهجمات العدائية، حيث قد يقوم القراصنة من خلال زرع إشارات صوتية محددة بالتدخل في حكم Manus على عروض المنافسين أثناء المفاوضات.
تظهر هذه التحديات واقعًا صارخًا: كلما كانت الأنظمة الذكية أكثر تقدمًا، زادت سعة نقاط الهجوم المحتملة.
في مجال Web3، كانت الأمان دائمًا موضوعًا يحظى باهتمام كبير. انطلاقًا من "مثلث المستحيل" الذي طرحه مؤسس الإيثيريوم فيتاليك بوتيرين (من الصعب على شبكة blockchain تحقيق الأمان واللامركزية والقابلية للتوسع في نفس الوقت)، نشأت تقنيات تشفير متعددة:
نموذج الأمان عديم الثقة: بناءً على مبدأ "لا تثق أبدًا، تحقق دائمًا"، يتم إجراء تحقق صارم من الهوية وتفويض لكل طلب وصول.
الهوية اللامركزية (DID): معيار التعرف على الهوية الذي لا يتطلب هيئة تسجيل مركزية، ويقدم طريقة جديدة لإدارة الهوية في نظام Web3.
التشفير المتجانس بالكامل (FHE): تقنية متقدمة تسمح بإجراء عمليات حسابية على البيانات في حالة مشفرة، وتناسب بشكل خاص سيناريوهات الحوسبة السحابية وإسناد البيانات.
في هذه التقنيات، من المتوقع أن تصبح التشفير المتجانس الكامل، كأحدث أساليب التشفير، التقنية الرئيسية لحل مشكلات الأمان في عصر الذكاء الاصطناعي. يسمح بإجراء الحسابات مباشرة على البيانات المشفرة، مما يوفر إمكانيات جديدة لحماية الخصوصية.
لمواجهة التحديات الأمنية التي تثيرها الذكاء الاصطناعي، يمكن اتخاذ خطوات من الجوانب التالية:
الجانب البيانات: التأكد من أن جميع المعلومات المدخلة من قبل المستخدم (بما في ذلك الخصائص البيولوجية، الصوت، إلخ) تتم معالجتها في حالة مشفرة، حتى نظام الذكاء الاصطناعي نفسه لا يمكنه فك تشفير البيانات الأصلية.
الجانب الخوارزمي: من خلال FHE تحقيق "تدريب نموذج مشفر"، بحيث لا يمكن حتى للمطورين مراقبة عملية اتخاذ القرار للذكاء الاصطناعي بشكل مباشر.
الجانب التعاوني: في أنظمة العوامل المتعددة، يتم استخدام التشفير بالعتبة، حتى إذا تم اختراق عقدة واحدة، فلن يؤدي ذلك إلى تسرب البيانات العالمية.
مع اقتراب تقنيات الذكاء الاصطناعي من مستوى الذكاء البشري، نحتاج إلى أنظمة دفاعية أكثر تقدمًا. لا يمكن لـ FHE فقط حل المشكلات الأمنية الحالية، بل تؤسس أيضًا لحقبة الذكاء الاصطناعي القوي في المستقبل. على طريق الوصول إلى AGI، لم يعد FHE خيارًا، بل أصبح شرطًا ضروريًا لضمان التنمية الآمنة للذكاء الاصطناعي.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Manus تتجاوز معيار GAIA تحديات أمان الذكاء الاصطناعي تبرز إمكانيات التشفير المتماثل بالكامل
حقق Manus تقدمًا ملحوظًا في اختبار GAIA المعياري
مؤخراً، حقق Manus رقماً قياسياً جديداً في اختبار GAIA، حيث تفوق أداؤه على نماذج اللغة الكبيرة من نفس الفئة. تعني هذه الإنجاز أن Manus يمتلك القدرة على معالجة المهام المعقدة بشكل مستقل، مثل المفاوضات التجارية عبر الوطنية، والتي تشمل تحليل العقود، والتخطيط الاستراتيجي، وصياغة الحلول.
بالمقارنة مع الأنظمة التقليدية، تتمثل مزايا Manus بشكل رئيسي في ثلاثة جوانب: تقسيم الأهداف الديناميكي، الاستدلال عبر الأنماط، وتعزيز الذاكرة التعلم. يمكنه تقسيم المهام الضخمة إلى مئات من المهام الفرعية القابلة للتنفيذ، ومعالجة أنواع متعددة من البيانات، وزيادة كفاءة اتخاذ القرار الخاصة به باستمرار من خلال التعلم المعزز، وتقليل احتمال حدوث الأخطاء.
أثارت تقدم Manus مرة أخرى مناقشة في الصناعة حول مسار تطوير الذكاء الاصطناعي: هل المستقبل يتجه نحو نموذج موحد للذكاء الاصطناعي العام (AGI) أم نموذج التعاون لأنظمة متعددة الوكالات (MAS)؟
تتناول هذه المسألة مفهوم تصميم Manus، مما يوحي باتجاهين محتملين للتطور:
مسار AGI: من خلال تحسين قدرات نظام ذكي واحد باستمرار، ليقترب تدريجياً من مستوى اتخاذ القرار الشامل للبشر.
مسار MAS: تعيين Manus كمنسق رئيسي، يقود العديد من الوكلاء المتخصصين للعمل معًا.
على السطح، هذه مناقشة حول المسار التكنولوجي، لكنها تعكس في جوهرها التناقضات الأساسية في تطوير الذكاء الاصطناعي: كيف نحقق التوازن بين الكفاءة والأمان. مع اقتراب الأنظمة الذكية الفردية من الذكاء العام الاصطناعي، تزداد مخاطر عدم الشفافية في عمليات اتخاذ القرار؛ بينما يمكن أن يؤدي التعاون بين الوكلاء المتعددين إلى تقليل المخاطر، إلا أنه قد يفوت الفرص الحاسمة في اتخاذ القرار بسبب تأخيرات الاتصال.
إن تطور Manus يضخم بشكل غير محسوس المخاطر المتأصلة في تطور الذكاء الاصطناعي. على سبيل المثال، في السيناريو الطبي، يحتاج Manus إلى الوصول الفوري إلى البيانات الحساسة للمرضى؛ وفي المفاوضات المالية، قد تتعلق المعلومات بمعلومات غير معلن عنها للشركات. بالإضافة إلى ذلك، هناك مشكلة تحيز الخوارزميات، مثل تقديم اقتراحات رواتب غير عادلة لمجموعات معينة خلال عملية التوظيف، أو معدل خطأ مرتفع في تقييم الشروط المتعلقة بالصناعات الناشئة أثناء مراجعة العقود القانونية. وهناك خطر آخر يستحق الانتباه وهو الهجمات العدائية، حيث قد يقوم القراصنة من خلال زرع إشارات صوتية محددة بالتدخل في حكم Manus على عروض المنافسين أثناء المفاوضات.
تظهر هذه التحديات واقعًا صارخًا: كلما كانت الأنظمة الذكية أكثر تقدمًا، زادت سعة نقاط الهجوم المحتملة.
في مجال Web3، كانت الأمان دائمًا موضوعًا يحظى باهتمام كبير. انطلاقًا من "مثلث المستحيل" الذي طرحه مؤسس الإيثيريوم فيتاليك بوتيرين (من الصعب على شبكة blockchain تحقيق الأمان واللامركزية والقابلية للتوسع في نفس الوقت)، نشأت تقنيات تشفير متعددة:
نموذج الأمان عديم الثقة: بناءً على مبدأ "لا تثق أبدًا، تحقق دائمًا"، يتم إجراء تحقق صارم من الهوية وتفويض لكل طلب وصول.
الهوية اللامركزية (DID): معيار التعرف على الهوية الذي لا يتطلب هيئة تسجيل مركزية، ويقدم طريقة جديدة لإدارة الهوية في نظام Web3.
التشفير المتجانس بالكامل (FHE): تقنية متقدمة تسمح بإجراء عمليات حسابية على البيانات في حالة مشفرة، وتناسب بشكل خاص سيناريوهات الحوسبة السحابية وإسناد البيانات.
في هذه التقنيات، من المتوقع أن تصبح التشفير المتجانس الكامل، كأحدث أساليب التشفير، التقنية الرئيسية لحل مشكلات الأمان في عصر الذكاء الاصطناعي. يسمح بإجراء الحسابات مباشرة على البيانات المشفرة، مما يوفر إمكانيات جديدة لحماية الخصوصية.
لمواجهة التحديات الأمنية التي تثيرها الذكاء الاصطناعي، يمكن اتخاذ خطوات من الجوانب التالية:
الجانب البيانات: التأكد من أن جميع المعلومات المدخلة من قبل المستخدم (بما في ذلك الخصائص البيولوجية، الصوت، إلخ) تتم معالجتها في حالة مشفرة، حتى نظام الذكاء الاصطناعي نفسه لا يمكنه فك تشفير البيانات الأصلية.
الجانب الخوارزمي: من خلال FHE تحقيق "تدريب نموذج مشفر"، بحيث لا يمكن حتى للمطورين مراقبة عملية اتخاذ القرار للذكاء الاصطناعي بشكل مباشر.
الجانب التعاوني: في أنظمة العوامل المتعددة، يتم استخدام التشفير بالعتبة، حتى إذا تم اختراق عقدة واحدة، فلن يؤدي ذلك إلى تسرب البيانات العالمية.
مع اقتراب تقنيات الذكاء الاصطناعي من مستوى الذكاء البشري، نحتاج إلى أنظمة دفاعية أكثر تقدمًا. لا يمكن لـ FHE فقط حل المشكلات الأمنية الحالية، بل تؤسس أيضًا لحقبة الذكاء الاصطناعي القوي في المستقبل. على طريق الوصول إلى AGI، لم يعد FHE خيارًا، بل أصبح شرطًا ضروريًا لضمان التنمية الآمنة للذكاء الاصطناعي.