Manus достиг значительных успехов в GAIA Бенчмарке
В последнее время Manus установил новый рекорд в бенчмарке GAIA, его производительность превзошла производительность крупных языковых моделей того же уровня. Это достижение означает, что Manus способен самостоятельно справляться со сложными задачами, такими как международные бизнес-переговоры, которые включают в себя анализ контрактов, стратегическое планирование и разработку предложений.
По сравнению с традиционными системами, преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать огромные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно улучшая свою эффективность принятия решений с помощью обучения с подкреплением, снижая вероятность ошибок.
Прогресс Manus снова вызвал обсуждение в отрасли о путях развития искусственного интеллекта: будущее — это единственная модель общего искусственного интеллекта (AGI) или кооперативная модель многократных интеллектуальных систем (MAS)?
Этот вопрос касается дизайнерской концепции Manus, которая подразумевает два возможных направления развития:
Путь AGI: постепенное улучшение возможностей отдельной интеллектуальной системы, чтобы она приближалась к уровню комплексного принятия решений человеком.
Путь MAS: позиционировать Manus как суперкоординатора, управляющего совместной работой множества агентов в различных профессиональных областях.
На поверхности это обсуждение технологий, но на самом деле оно отражает основное противоречие в развитии ИИ: как достичь баланса между эффективностью и безопасностью. По мере того как отдельные интеллектуальные системы все ближе подходят к AGI, риски непрозрачности их процессов принятия решений также возрастают; в то время как сотрудничество многих агентов может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержки связи.
Эволюция Manus неосознанно увеличивает присущие риски развития ИИ. Например, в медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть задействованы нераскрытая информация компаний. Кроме того, существует проблема алгоритмической предвзятости, такая как предоставление несправедливых рекомендаций по зарплате для определенных групп во время набора персонала или высокая вероятность ошибок в оценке условий новых отраслей при проверке юридических контрактов. Еще один риск, заслуживающий внимания, - это атакующие угрозы, когда хакеры могут вмешиваться в оценку предложений соперников в переговорах, внедряя определенные аудиосигналы.
Эти вызовы подчеркивают суровую реальность: чем более продвинуты интеллектуальные системы, тем шире их потенциальные уязвимости.
В области Web3 безопасность всегда была предметом значительного внимания. Исходя из "невозможного треугольника", предложенного основателем Ethereum Виталиком Бутериным (блокчейн-сети сложно одновременно достичь безопасности, децентрализации и масштабируемости), возникло множество криптографических технологий:
Модель нулевого доверия: на основе принципа "никогда не доверять, всегда проверять" осуществляется строгая проверка и авторизация каждой просьбы на доступ.
Децентрализованная идентичность (DID): стандарт идентификации, который не требует централизованного регистрационного органа и предоставляет новый способ управления идентичностью для экосистемы Web3.
Полностью однородное шифрование (FHE): передовая технология, позволяющая выполнять вычисления над данными в зашифрованном состоянии, особенно подходит для облачных вычислений и внешней передачи данных.
Среди этих технологий полная гомоморфная криптография, как одна из новейших форм шифрования, имеет потенциал стать ключевой технологией для решения проблем безопасности в эпоху ИИ. Она позволяет выполнять вычисления непосредственно на зашифрованных данных, предоставляя новые возможности для защиты конфиденциальности.
Чтобы справиться с вызовами безопасности, вызванными ИИ, можно подойти к этому с нескольких сторон:
Данные на уровне: гарантировать, что вся информация, введенная пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном виде, и даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: использование FHE для реализации "обучения модели с шифрованием", что позволяет даже разработчикам не иметь возможности напрямую наблюдать за процессом принятия решений AI.
Синергетический уровень: в многомагистральных системах используется пороговое шифрование, и даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.
С учетом того, что технологии ИИ все ближе к уровню человеческого интеллекта, нам нужны более продвинутые системы защиты. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эпохи сильного ИИ. На пути к AGI FHE больше не является опцией, а является необходимым условием для безопасного развития ИИ.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
17 Лайков
Награда
17
5
Поделиться
комментарий
0/400
ZenMiner
· 17ч назад
Безопасность зависит от шифрования.
Посмотреть ОригиналОтветить0
FallingLeaf
· 17ч назад
Кто сможет выдержать риски шифрования?
Посмотреть ОригиналОтветить0
OnchainHolmes
· 17ч назад
полностью гомоморфное шифрование удивительный啊 Это как раз то, что нужно
Manus преодолел бенчмарк GAIA, вызов безопасности с помощью искусственного интеллекта подчеркивает потенциал полностью гомоморфного шифрования.
Manus достиг значительных успехов в GAIA Бенчмарке
В последнее время Manus установил новый рекорд в бенчмарке GAIA, его производительность превзошла производительность крупных языковых моделей того же уровня. Это достижение означает, что Manus способен самостоятельно справляться со сложными задачами, такими как международные бизнес-переговоры, которые включают в себя анализ контрактов, стратегическое планирование и разработку предложений.
По сравнению с традиционными системами, преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать огромные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно улучшая свою эффективность принятия решений с помощью обучения с подкреплением, снижая вероятность ошибок.
Прогресс Manus снова вызвал обсуждение в отрасли о путях развития искусственного интеллекта: будущее — это единственная модель общего искусственного интеллекта (AGI) или кооперативная модель многократных интеллектуальных систем (MAS)?
Этот вопрос касается дизайнерской концепции Manus, которая подразумевает два возможных направления развития:
Путь AGI: постепенное улучшение возможностей отдельной интеллектуальной системы, чтобы она приближалась к уровню комплексного принятия решений человеком.
Путь MAS: позиционировать Manus как суперкоординатора, управляющего совместной работой множества агентов в различных профессиональных областях.
На поверхности это обсуждение технологий, но на самом деле оно отражает основное противоречие в развитии ИИ: как достичь баланса между эффективностью и безопасностью. По мере того как отдельные интеллектуальные системы все ближе подходят к AGI, риски непрозрачности их процессов принятия решений также возрастают; в то время как сотрудничество многих агентов может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержки связи.
Эволюция Manus неосознанно увеличивает присущие риски развития ИИ. Например, в медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть задействованы нераскрытая информация компаний. Кроме того, существует проблема алгоритмической предвзятости, такая как предоставление несправедливых рекомендаций по зарплате для определенных групп во время набора персонала или высокая вероятность ошибок в оценке условий новых отраслей при проверке юридических контрактов. Еще один риск, заслуживающий внимания, - это атакующие угрозы, когда хакеры могут вмешиваться в оценку предложений соперников в переговорах, внедряя определенные аудиосигналы.
Эти вызовы подчеркивают суровую реальность: чем более продвинуты интеллектуальные системы, тем шире их потенциальные уязвимости.
В области Web3 безопасность всегда была предметом значительного внимания. Исходя из "невозможного треугольника", предложенного основателем Ethereum Виталиком Бутериным (блокчейн-сети сложно одновременно достичь безопасности, децентрализации и масштабируемости), возникло множество криптографических технологий:
Модель нулевого доверия: на основе принципа "никогда не доверять, всегда проверять" осуществляется строгая проверка и авторизация каждой просьбы на доступ.
Децентрализованная идентичность (DID): стандарт идентификации, который не требует централизованного регистрационного органа и предоставляет новый способ управления идентичностью для экосистемы Web3.
Полностью однородное шифрование (FHE): передовая технология, позволяющая выполнять вычисления над данными в зашифрованном состоянии, особенно подходит для облачных вычислений и внешней передачи данных.
Среди этих технологий полная гомоморфная криптография, как одна из новейших форм шифрования, имеет потенциал стать ключевой технологией для решения проблем безопасности в эпоху ИИ. Она позволяет выполнять вычисления непосредственно на зашифрованных данных, предоставляя новые возможности для защиты конфиденциальности.
Чтобы справиться с вызовами безопасности, вызванными ИИ, можно подойти к этому с нескольких сторон:
Данные на уровне: гарантировать, что вся информация, введенная пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном виде, и даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: использование FHE для реализации "обучения модели с шифрованием", что позволяет даже разработчикам не иметь возможности напрямую наблюдать за процессом принятия решений AI.
Синергетический уровень: в многомагистральных системах используется пороговое шифрование, и даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.
С учетом того, что технологии ИИ все ближе к уровню человеческого интеллекта, нам нужны более продвинутые системы защиты. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эпохи сильного ИИ. На пути к AGI FHE больше не является опцией, а является необходимым условием для безопасного развития ИИ.