Прогресс технологий искусственного интеллекта и вызовы безопасности
Недавно искусственный интеллект под названием Manus достиг прорывных результатов в тестировании GAIA, его производительность превосходит аналогичные крупные языковые модели. Manus продемонстрировал способность независимо выполнять сложные задачи, такие как ведение международных коммерческих переговоров, что включает анализ условий контрактов, разработку стратегий и генерацию решений на нескольких этапах. По сравнению с традиционными системами, преимущество Manus заключается в его способности динамически разбивать цели на части, кросс-модальном выводе и улучшенном обучении с памятью. Он может разбивать крупные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность своих решений и снижая уровень ошибок с помощью обучения с подкреплением.
Прорывные достижения Manus снова вызвали обсуждение будущих путей развития в области искусственного интеллекта: двигаться ли в сторону общего искусственного интеллекта (AGI) или же сосредоточиться на кооперативных многоагентных системах (MAS)? Этот вопрос на самом деле отражает одну из ключевых противоречий в развитии искусственного интеллекта: как найти баланс между эффективностью и безопасностью?
С увеличением близости отдельных интеллектуальных систем к AGI риски непрозрачности их процесса принятия решений также возрастают. Хотя кооперация многоагентных систем может распределять риски, она может упустить ключевые моменты для принятия решений из-за задержек в коммуникации. Эволюция Manus невольно увеличила присущие риски развития искусственного интеллекта, включая утечку данных, предвзятость алгоритмов и проблемы атак противника.
В медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительным данным пациентов; в финансовых переговорах он может получить доступ к неразглашаемой информации компаний. В процессе найма Manus может давать несправедливые рекомендации по заработной плате для определенных групп; при проверке юридических контрактов вероятность неверного толкования условий новых отраслей может достигать половины. Кроме того, хакеры могут вмешиваться в оценку Manus во время переговоров, внедряя определенные звуковые частоты.
Эти проблемы подчеркивают тревожную тенденцию: чем более развиты интеллектуальные системы, тем шире их потенциальные уязвимости.
Чтобы справиться с этими вызовами, отрасль исследует различные криптографические технологии и модели безопасности:
Модель нулевого доверия: акцент на строгой проверке и авторизации каждого запроса на доступ, без автоматического доверия к каким-либо устройствам или пользователям.
Децентрализованная идентичность (DID): новый стандарт децентрализованной цифровой идентичности, который не требует зависимости от централизованных регистрационных систем.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных и одновременно обеспечивая их использование.
Полностью гомоморфное шифрование, как новая технология шифрования, имеет все шансы стать ключевым инструментом для решения проблем безопасности в эпоху искусственного интеллекта. Оно позволяет на уровне данных защищать всю информацию, вводимую пользователем, включая биометрические данные и интонацию голоса, даже если сама система ИИ не может расшифровать оригинальные данные. На алгоритмическом уровне FHE может реализовать "обучение зашифрованной модели", что делает невозможным для разработчиков напрямую наблюдать за процессом принятия решений ИИ. В области координации многоагентных систем использование порогового шифрования может гарантировать, что даже если один узел будет взломан, это не приведет к утечке глобальных данных.
С развитием технологий искусственного интеллекта, все более приближающихся к человеческому разуму, создание нечеловеческой системы защиты становится все более важным. Полная гомоморфная криптография не только решает текущие проблемы безопасности, но и закладывает основу для эпохи сильного искусственного интеллекта в будущем. На пути к AGI полная гомоморфная криптография уже не является опциональным решением, а представляет собой необходимый инструмент для обеспечения безопасности и управляемости систем искусственного интеллекта.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Лайков
Награда
8
2
Поделиться
комментарий
0/400
¯\_(ツ)_/¯
· 07-11 09:34
Кто будет следовать за безопасностью ИИ? Еще tm международные переговоры?
Прорыв и опасения: Потенциал ИИ и игра безопасности Полностью гомоморфное шифрование может стать ключом
Прогресс технологий искусственного интеллекта и вызовы безопасности
Недавно искусственный интеллект под названием Manus достиг прорывных результатов в тестировании GAIA, его производительность превосходит аналогичные крупные языковые модели. Manus продемонстрировал способность независимо выполнять сложные задачи, такие как ведение международных коммерческих переговоров, что включает анализ условий контрактов, разработку стратегий и генерацию решений на нескольких этапах. По сравнению с традиционными системами, преимущество Manus заключается в его способности динамически разбивать цели на части, кросс-модальном выводе и улучшенном обучении с памятью. Он может разбивать крупные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность своих решений и снижая уровень ошибок с помощью обучения с подкреплением.
Прорывные достижения Manus снова вызвали обсуждение будущих путей развития в области искусственного интеллекта: двигаться ли в сторону общего искусственного интеллекта (AGI) или же сосредоточиться на кооперативных многоагентных системах (MAS)? Этот вопрос на самом деле отражает одну из ключевых противоречий в развитии искусственного интеллекта: как найти баланс между эффективностью и безопасностью?
С увеличением близости отдельных интеллектуальных систем к AGI риски непрозрачности их процесса принятия решений также возрастают. Хотя кооперация многоагентных систем может распределять риски, она может упустить ключевые моменты для принятия решений из-за задержек в коммуникации. Эволюция Manus невольно увеличила присущие риски развития искусственного интеллекта, включая утечку данных, предвзятость алгоритмов и проблемы атак противника.
В медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительным данным пациентов; в финансовых переговорах он может получить доступ к неразглашаемой информации компаний. В процессе найма Manus может давать несправедливые рекомендации по заработной плате для определенных групп; при проверке юридических контрактов вероятность неверного толкования условий новых отраслей может достигать половины. Кроме того, хакеры могут вмешиваться в оценку Manus во время переговоров, внедряя определенные звуковые частоты.
Эти проблемы подчеркивают тревожную тенденцию: чем более развиты интеллектуальные системы, тем шире их потенциальные уязвимости.
Чтобы справиться с этими вызовами, отрасль исследует различные криптографические технологии и модели безопасности:
Модель нулевого доверия: акцент на строгой проверке и авторизации каждого запроса на доступ, без автоматического доверия к каким-либо устройствам или пользователям.
Децентрализованная идентичность (DID): новый стандарт децентрализованной цифровой идентичности, который не требует зависимости от централизованных регистрационных систем.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных и одновременно обеспечивая их использование.
Полностью гомоморфное шифрование, как новая технология шифрования, имеет все шансы стать ключевым инструментом для решения проблем безопасности в эпоху искусственного интеллекта. Оно позволяет на уровне данных защищать всю информацию, вводимую пользователем, включая биометрические данные и интонацию голоса, даже если сама система ИИ не может расшифровать оригинальные данные. На алгоритмическом уровне FHE может реализовать "обучение зашифрованной модели", что делает невозможным для разработчиков напрямую наблюдать за процессом принятия решений ИИ. В области координации многоагентных систем использование порогового шифрования может гарантировать, что даже если один узел будет взломан, это не приведет к утечке глобальных данных.
С развитием технологий искусственного интеллекта, все более приближающихся к человеческому разуму, создание нечеловеческой системы защиты становится все более важным. Полная гомоморфная криптография не только решает текущие проблемы безопасности, но и закладывает основу для эпохи сильного искусственного интеллекта в будущем. На пути к AGI полная гомоморфная криптография уже не является опциональным решением, а представляет собой необходимый инструмент для обеспечения безопасности и управляемости систем искусственного интеллекта.