Последние достижения в области ИИ: производительность модели Manus превосходит аналогичные продукты OpenAI
Недавно модель Manus достигла прорывного прогресса в тестировании GAIA, ее производительность превзошла модели OpenAI такого же уровня. Это означает, что Manus теперь обладает способностью самостоятельно выполнять сложные задачи, такие как многоэтапные задачи международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений.
Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с подкреплением.
Этот прорыв снова вызвал обсуждение в индустрии о путях развития ИИ: идти к общему искусственному интеллекту (AGI) или к многопользовательским системам (MAS)? Дизайнерская концепция Manus, похоже, подразумевает две возможности: во-первых, постоянное повышение уровня индивидуального интеллекта, приближающегося к человеческим способностям комплексного принятия решений; во-вторых, выступать в роли суперкоординатора, управляя слаженной работой нескольких ИИ в специализированных областях.
Однако с увеличением возможностей ИИ также растут его потенциальные риски. Например, в медицинской сфере ИИ может потребоваться доступ к чувствительным генетическим данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. Кроме того, в ИИ-системах могут существовать алгоритмические предвзятости, которые могут приводить к несправедливой оценке определённых групп при найме. Более того, ИИ-системы могут подвергаться атакам с использованием противодействующих методов, такими как хакеры, которые внедряют определённые аудиофайлы, заставляя ИИ принимать неверные решения в процессе переговоров.
Столкнувшись с этими вызовами, отрасль исследует множество решений для обеспечения безопасности. Среди них полная гомоморфная криптография (FHE) считается важным инструментом для решения проблем безопасности в эпоху ИИ. FHE позволяет обрабатывать данные в зашифрованном состоянии, даже сам ИИ не может расшифровать исходную информацию. Эта технология может применяться на нескольких уровнях:
Уровень данных: Вся информация, введенная пользователем (, включая биометрические данные, голос ) обрабатывается в зашифрованном состоянии, что эффективно предотвращает утечку информации.
Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, разработчики даже не могут напрямую наблюдать за процессом принятия решений AI.
Синхронный уровень: связь между несколькими AI-агентами использует пороговое шифрование, даже если один узел будет взломан, это не приведет к утечке глобальных данных.
Хотя в настоящее время применение технологии FHE в области Web3 относительно ограничено, с быстрым развитием технологий ИИ ее важность становится все более очевидной. В будущем, по мере того как системы ИИ все больше приближаются к человеческому интеллекту, нетрадиционные системы безопасности станут жизненно важными. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эры сильного ИИ. На пути к AGI FHE вполне может стать необходимостью для выживания.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Модель Manus превосходит OpenAI, полностью гомоморфное шифрование может стать новым стандартом безопасности с помощью искусственного интеллекта.
Последние достижения в области ИИ: производительность модели Manus превосходит аналогичные продукты OpenAI
Недавно модель Manus достигла прорывного прогресса в тестировании GAIA, ее производительность превзошла модели OpenAI такого же уровня. Это означает, что Manus теперь обладает способностью самостоятельно выполнять сложные задачи, такие как многоэтапные задачи международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений.
Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с подкреплением.
Этот прорыв снова вызвал обсуждение в индустрии о путях развития ИИ: идти к общему искусственному интеллекту (AGI) или к многопользовательским системам (MAS)? Дизайнерская концепция Manus, похоже, подразумевает две возможности: во-первых, постоянное повышение уровня индивидуального интеллекта, приближающегося к человеческим способностям комплексного принятия решений; во-вторых, выступать в роли суперкоординатора, управляя слаженной работой нескольких ИИ в специализированных областях.
Однако с увеличением возможностей ИИ также растут его потенциальные риски. Например, в медицинской сфере ИИ может потребоваться доступ к чувствительным генетическим данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. Кроме того, в ИИ-системах могут существовать алгоритмические предвзятости, которые могут приводить к несправедливой оценке определённых групп при найме. Более того, ИИ-системы могут подвергаться атакам с использованием противодействующих методов, такими как хакеры, которые внедряют определённые аудиофайлы, заставляя ИИ принимать неверные решения в процессе переговоров.
Столкнувшись с этими вызовами, отрасль исследует множество решений для обеспечения безопасности. Среди них полная гомоморфная криптография (FHE) считается важным инструментом для решения проблем безопасности в эпоху ИИ. FHE позволяет обрабатывать данные в зашифрованном состоянии, даже сам ИИ не может расшифровать исходную информацию. Эта технология может применяться на нескольких уровнях:
Уровень данных: Вся информация, введенная пользователем (, включая биометрические данные, голос ) обрабатывается в зашифрованном состоянии, что эффективно предотвращает утечку информации.
Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, разработчики даже не могут напрямую наблюдать за процессом принятия решений AI.
Синхронный уровень: связь между несколькими AI-агентами использует пороговое шифрование, даже если один узел будет взломан, это не приведет к утечке глобальных данных.
Хотя в настоящее время применение технологии FHE в области Web3 относительно ограничено, с быстрым развитием технологий ИИ ее важность становится все более очевидной. В будущем, по мере того как системы ИИ все больше приближаются к человеческому интеллекту, нетрадиционные системы безопасности станут жизненно важными. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эры сильного ИИ. На пути к AGI FHE вполне может стать необходимостью для выживания.