اختراقات وقلق: لعبة إمكانيات الذكاء الاصطناعي والأمان. قد يصبح التشفير المتماثل بالكامل هو المفتاح.

تقدم تقنية الذكاء الاصطناعي وتحديات الأمان

مؤخراً، حقق نظام الذكاء الاصطناعي المعروف باسم Manus نتائج بارزة في اختبارات GAIA، حيث تفوق أداؤه على نماذج اللغة الكبيرة من نفس المستوى. أظهر Manus القدرة على إتمام مهام معقدة بشكل مستقل، مثل إجراء مفاوضات تجارية عبر الدول، والتي تشمل تحليل بنود العقود، وتطوير الاستراتيجيات، وإنشاء الحلول. مقارنةً بالأنظمة التقليدية، تتمثل مزايا Manus في قدرته على تحليل الأهداف الديناميكية، واستنتاجات متعددة النماذج، وزيادة التعلم من خلال الذاكرة. يمكنه تقسيم المهام الكبيرة إلى مئات من المهام الفرعية القابلة للتنفيذ، ومعالجة أنواع متعددة من البيانات، وزيادة كفاءة اتخاذ القرار وتقليل معدل الخطأ من خلال التعلم المعزز.

Manus يجلب بزوغ فجر AGI، وأمان الذكاء الاصطناعي يستحق التأمل

أدى التقدم الرائد لـ Manus مرة أخرى إلى إثارة نقاش حول مسارات التطور المستقبلية في مجال الذكاء الاصطناعي: هل يجب أن نتجه نحو الذكاء الاصطناعي العام (AGI) أم أن نظم الوكلاء المتعددة (MAS) يجب أن تتولى القيادة بالتعاون؟ في الواقع، تعكس هذه المسألة تناقضًا أساسيًا في تطور الذكاء الاصطناعي: كيف يمكن تحقيق التوازن بين الكفاءة والأمان؟

مع اقتراب الأنظمة الذكية الفردية من الذكاء العام الاصطناعي (AGI)، تزداد مخاطر عدم شفافية عملية اتخاذ القرار. بينما يمكن أن يوزع التعاون بين الوكلاء المتعددين المخاطر، إلا أنه قد يفوت الفرص الحاسمة في اتخاذ القرار بسبب تأخيرات الاتصال. إن تطور Manus يضخم بشكل غير مرئي المخاطر المتأصلة في تطور الذكاء الاصطناعي، بما في ذلك تسرب خصوصية البيانات، والتحيز في الخوارزميات، والهجمات العدائية.

في السيناريوهات الطبية، يحتاج Manus إلى الوصول الفوري إلى البيانات الحساسة للمرضى؛ في المفاوضات المالية، قد يتعرض لمعلومات غير معلنة عن الشركات. خلال عملية التوظيف، قد يقدم Manus اقتراحات غير عادلة للرواتب لفئات معينة؛ في مراجعة العقود القانونية، قد تكون نسبة الخطأ في تفسير بنود الصناعات الناشئة قريبة من النصف. بالإضافة إلى ذلك، قد يتمكن القراصنة من التدخل في حكم Manus أثناء المفاوضات من خلال زراعة ترددات صوتية معينة.

تسلط هذه القضايا الضوء على اتجاه مقلق: كلما زادت تطور الأنظمة الذكية، زادت مساحة الهجوم المحتملة.

لمواجهة هذه التحديات، تستكشف الصناعة مجموعة متنوعة من تقنيات التشفير ونماذج الأمان:

  1. نموذج الأمن القائم على الثقة الصفرية: يركز على التحقق الصارم من الهوية والتفويض لكل طلب وصول، وعدم الثقة بشكل افتراضي في أي جهاز أو مستخدم.

  2. الهوية اللامركزية (DID): معيار جديد للهوية الرقمية اللامركزية، لا يعتمد على أنظمة التسجيل المركزية.

  3. التشفير المتجانس بالكامل (FHE): يسمح بإجراء حسابات على البيانات في حالة التشفير، مما يحمي خصوصية البيانات أثناء تحقيق الاستفادة منها.

تعتبر التشفير المتجانس كأحد تقنيات التشفير الناشئة، أداة رئيسية محتملة لحل مشكلات الأمان في عصر الذكاء الاصطناعي. إنها قادرة على حماية جميع المعلومات المدخلة من قبل المستخدمين على مستوى البيانات، بما في ذلك الخصائص البيولوجية ونبرة الصوت، حتى أن نظام الذكاء الاصطناعي نفسه لا يمكنه فك تشفير البيانات الأصلية. على مستوى الخوارزميات، يمكن لـ FHE تحقيق "تدريب النماذج المشفرة"، مما يجعل المطورين غير قادرين على مراقبة عملية اتخاذ القرارات الخاصة بالذكاء الاصطناعي بشكل مباشر. في مجال التعاون بين الوكلاء المتعددين، يمكن أن يضمن استخدام التشفير العتبي أنه حتى إذا تم اختراق عقدة واحدة، فلن يؤدي ذلك إلى تسرب بيانات عالمية.

مع تقدم تقنيات الذكاء الاصطناعي نحو الذكاء البشري، أصبح من المهم بشكل متزايد إنشاء أنظمة دفاع غير بشرية. لا يمكن أن تحل التشفير المتجانس الشامل فقط مشاكل الأمان الحالية، بل تؤسس أيضًا لأساس عصر الذكاء الاصطناعي القوي في المستقبل. على الطريق نحو AGI، لم يعد FHE خيارًا، بل أصبح وسيلة ضرورية لضمان أمان وقابلية التحكم في أنظمة الذكاء الاصطناعي.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • 2
  • مشاركة
تعليق
0/400
¯\_(ツ)_/¯vip
· 07-11 09:34
من سيقوم بمتابعة متابعة أمان الذكاء الاصطناعي؟ هل لا تزال هناك مفاوضات دولية؟
شاهد النسخة الأصليةرد0
NeverVoteOnDAOvip
· 07-11 09:34
هل ستحل هذه الأشياء محلي؟ هراء!
شاهد النسخة الأصليةرد0
  • تثبيت