Модель Manus превосходит OpenAI, полностью гомоморфное шифрование может стать новым стандартом безопасности с помощью искусственного интеллекта.

Последние достижения в области ИИ: производительность модели Manus превосходит аналогичные продукты OpenAI

Недавно модель Manus достигла прорывного прогресса в тестировании GAIA, ее производительность превзошла модели OpenAI такого же уровня. Это означает, что Manus теперь обладает способностью самостоятельно выполнять сложные задачи, такие как многоэтапные задачи международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений.

Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с подкреплением.

Этот прорыв снова вызвал обсуждение в индустрии о путях развития ИИ: идти к общему искусственному интеллекту (AGI) или к многопользовательским системам (MAS)? Дизайнерская концепция Manus, похоже, подразумевает две возможности: во-первых, постоянное повышение уровня индивидуального интеллекта, приближающегося к человеческим способностям комплексного принятия решений; во-вторых, выступать в роли суперкоординатора, управляя слаженной работой нескольких ИИ в специализированных областях.

Manus приносит рассвет AGI, безопасность ИИ также заслуживает глубоких размышлений

Однако с увеличением возможностей ИИ также растут его потенциальные риски. Например, в медицинской сфере ИИ может потребоваться доступ к чувствительным генетическим данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. Кроме того, в ИИ-системах могут существовать алгоритмические предвзятости, которые могут приводить к несправедливой оценке определённых групп при найме. Более того, ИИ-системы могут подвергаться атакам с использованием противодействующих методов, такими как хакеры, которые внедряют определённые аудиофайлы, заставляя ИИ принимать неверные решения в процессе переговоров.

Столкнувшись с этими вызовами, отрасль исследует множество решений для обеспечения безопасности. Среди них полная гомоморфная криптография (FHE) считается важным инструментом для решения проблем безопасности в эпоху ИИ. FHE позволяет обрабатывать данные в зашифрованном состоянии, даже сам ИИ не может расшифровать исходную информацию. Эта технология может применяться на нескольких уровнях:

  1. Уровень данных: Вся информация, введенная пользователем (, включая биометрические данные, голос ) обрабатывается в зашифрованном состоянии, что эффективно предотвращает утечку информации.

  2. Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, разработчики даже не могут напрямую наблюдать за процессом принятия решений AI.

  3. Синхронный уровень: связь между несколькими AI-агентами использует пороговое шифрование, даже если один узел будет взломан, это не приведет к утечке глобальных данных.

Хотя в настоящее время применение технологии FHE в области Web3 относительно ограничено, с быстрым развитием технологий ИИ ее важность становится все более очевидной. В будущем, по мере того как системы ИИ все больше приближаются к человеческому интеллекту, нетрадиционные системы безопасности станут жизненно важными. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эры сильного ИИ. На пути к AGI FHE вполне может стать необходимостью для выживания.

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить