Передумови AGI: Прорив моделі Manus та нові виклики безпеки за допомогою штучного інтелекту
У галузі штучного інтелекту модель Manus нещодавно досягла значного прориву, досягнувши передового рівня в тестуванні GAIA, її продуктивність навіть перевершила продуктивність аналогічних великих мовних моделей. Це означає, що Manus здатна самостійно виконувати складні завдання, такі як міжнародні комерційні переговори, що включає аналіз контрактів, стратегічне прогнозування та розробку планів, а також може координувати юридичні та фінансові команди.
Переваги Manus в основному проявляються в трьох аспектах: здатність до динамічного розподілу цілей, здатність до крос-модального висновку та здатність до навчання з підсиленням пам'яті. Він може розділяти великі завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних, і постійно підвищує ефективність прийняття рішень за допомогою навчання з підсиленням, знижуючи ймовірність помилок.
Прогрес Manus знову викликав обговорення в індустрії щодо шляхів розвитку штучного інтелекту: чи з'явиться в майбутньому єдиний загальний штучний інтелект (AGI), чи домінуватимуть багатагентні системи (MAS)? Це питання стосується основної концепції дизайну Manus і натякає на два можливі напрямки розвитку:
Шлях AGI: шляхом постійного підвищення можливостей окремої інтелектуальної системи, щоб вона поступово наближалася до загального рівня ухвалення рішень людиною.
Шлях MAS: використовувати Manus як суперкоординатора, який керує сотнями спеціалізованих агентів для спільної роботи.
На перший погляд, це суперечка про технологічні шляхи, але насправді це відображає основний конфлікт у розвитку ШІ: як знайти баланс між ефективністю та безпекою? З наближенням єдиної інтелектуальної системи до AGI ризик непрозорості її процесу прийняття рішень також зростає. А хоча співпраця багатьох агентів може розподілити ризики, вона може пропустити критично важливі моменти для прийняття рішень через затримки в комунікації.
Розвиток Manus безпосередньо підкреслює вроджені ризики штучного інтелекту. Наприклад, у медичних ситуаціях необхідний доступ до геномних даних пацієнтів в режимі реального часу; під час фінансових переговорів можуть бути залучені непубліковані фінансові дані компаній. Крім того, існує проблема упередженості алгоритмів, коли під час переговорів щодо найму можуть бути надані несправедливі пропозиції щодо зарплати для певних груп, або під час перевірки юридичних контрактів може бути високий рівень помилок у розумінні умов нових галузей. Ще серйознішою є можливість наявності вразливостей до атак, що змушують хакерів вводити в оману їхні оцінки переговорів шляхом впровадження специфічних аудіочастот.
Це підкреслює сувору реальність системи штучного інтелекту: чим вищий рівень інтелекту, тим ширша потенційна площа атаки.
У сфері Web3 безпека завжди була ключовою темою. На основі теорії "неможливого трикутника", запропонованої Віталіком Бутеріним (блокчейн-мережі не можуть одночасно досягти безпеки, децентралізації та масштабованості), виникло безліч криптографічних технологій:
Модель нульової довіри: підкреслює принцип "ніколи не довіряти, завжди перевіряти", здійснюючи строгий контроль доступу та авторизацію для кожного запиту на доступ.
Децентралізована ідентичність (DID): новий стандарт децентралізованої цифрової ідентичності, що дозволяє підтвердження особи без централізованої реєстрації.
Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення над даними в зашифрованому стані без необхідності їх розшифровки.
Серед них, повна гомоморфна криптографія, як одна з найновіших криптографічних технологій, вважається ключем до вирішення проблем безпеки в еру штучного інтелекту.
Щодо викликів безпеки систем штучного інтелекту, таких як Manus, FHE пропонує багаторівневі рішення:
Дані на рівні: Уся інформація, введена користувачем (включаючи біометричні дані, голос тощо), обробляється в зашифрованому стані, навіть сама система ШІ не може розшифрувати вихідні дані.
Алгоритмічний рівень: реалізація "тренування зашифрованих моделей" за допомогою FHE, що дозволяє навіть розробникам не мати змоги безпосередньо спостерігати за процесом прийняття рішень AI.
Співпраця: Комунікація між кількома агентами здійснюється за допомогою порогового шифрування, і навіть якщо окремий вузол буде зламаний, це не призведе до витоку глобальних даних.
Хоча технології безпеки Web3 можуть здаватися далекими для звичайних користувачів, вони тісно пов'язані з інтересами кожного. У цьому складному цифровому світі, якщо не вжити активних заходів захисту, важко уникнути ризиків інформаційної безпеки.
У сфері децентралізованої ідентичності проект uPort був запущений у 2017 році на основній мережі Ethereum. Що стосується моделі безпечності без довіри, проект NKN випустив основну мережу у 2019 році. А Mind Network є першим проектом FHE, який був запущений на основній мережі, і співпрацює з відомими установами, такими як ZAMA, Google та DeepSeek.
Незважаючи на те, що ранні проекти безпеки могли не привернути широкої уваги, з швидким розвитком технології штучного інтелекту важливість сфери безпеки стає все більш очевидною. Чи зможе Mind Network зламати цю тенденцію і стати лідером у сфері безпеки, варто продовжувати стежити.
З наближенням технологій штучного інтелекту до рівня людського інтелекту, нам більше потрібні передові системи захисту. Цінність FHE полягає не лише у вирішенні поточних проблем, але й у створенні основи для майбутньої ери потужного штучного інтелекту. На шляху до AGI FHE більше не є необов'язковим елементом, а є необхідною умовою для забезпечення безпеки розвитку штучного інтелекту.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
10 лайків
Нагородити
10
4
Поділіться
Прокоментувати
0/400
SandwichVictim
· 07-05 16:53
Це насправді правда?
Переглянути оригіналвідповісти на0
MEVictim
· 07-05 16:53
Пророчий центр - ПІ
Переглянути оригіналвідповісти на0
ForkMonger
· 07-05 16:52
інший вектор для маніпуляції системою... тільки що знайшли наш наступний експлойт управління
Прорив моделі Manus викликав обговорення AGI, FHE може стати ключем до безпеки за допомогою штучного інтелекту.
Передумови AGI: Прорив моделі Manus та нові виклики безпеки за допомогою штучного інтелекту
У галузі штучного інтелекту модель Manus нещодавно досягла значного прориву, досягнувши передового рівня в тестуванні GAIA, її продуктивність навіть перевершила продуктивність аналогічних великих мовних моделей. Це означає, що Manus здатна самостійно виконувати складні завдання, такі як міжнародні комерційні переговори, що включає аналіз контрактів, стратегічне прогнозування та розробку планів, а також може координувати юридичні та фінансові команди.
Переваги Manus в основному проявляються в трьох аспектах: здатність до динамічного розподілу цілей, здатність до крос-модального висновку та здатність до навчання з підсиленням пам'яті. Він може розділяти великі завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних, і постійно підвищує ефективність прийняття рішень за допомогою навчання з підсиленням, знижуючи ймовірність помилок.
Прогрес Manus знову викликав обговорення в індустрії щодо шляхів розвитку штучного інтелекту: чи з'явиться в майбутньому єдиний загальний штучний інтелект (AGI), чи домінуватимуть багатагентні системи (MAS)? Це питання стосується основної концепції дизайну Manus і натякає на два можливі напрямки розвитку:
Шлях AGI: шляхом постійного підвищення можливостей окремої інтелектуальної системи, щоб вона поступово наближалася до загального рівня ухвалення рішень людиною.
Шлях MAS: використовувати Manus як суперкоординатора, який керує сотнями спеціалізованих агентів для спільної роботи.
На перший погляд, це суперечка про технологічні шляхи, але насправді це відображає основний конфлікт у розвитку ШІ: як знайти баланс між ефективністю та безпекою? З наближенням єдиної інтелектуальної системи до AGI ризик непрозорості її процесу прийняття рішень також зростає. А хоча співпраця багатьох агентів може розподілити ризики, вона може пропустити критично важливі моменти для прийняття рішень через затримки в комунікації.
Розвиток Manus безпосередньо підкреслює вроджені ризики штучного інтелекту. Наприклад, у медичних ситуаціях необхідний доступ до геномних даних пацієнтів в режимі реального часу; під час фінансових переговорів можуть бути залучені непубліковані фінансові дані компаній. Крім того, існує проблема упередженості алгоритмів, коли під час переговорів щодо найму можуть бути надані несправедливі пропозиції щодо зарплати для певних груп, або під час перевірки юридичних контрактів може бути високий рівень помилок у розумінні умов нових галузей. Ще серйознішою є можливість наявності вразливостей до атак, що змушують хакерів вводити в оману їхні оцінки переговорів шляхом впровадження специфічних аудіочастот.
Це підкреслює сувору реальність системи штучного інтелекту: чим вищий рівень інтелекту, тим ширша потенційна площа атаки.
У сфері Web3 безпека завжди була ключовою темою. На основі теорії "неможливого трикутника", запропонованої Віталіком Бутеріним (блокчейн-мережі не можуть одночасно досягти безпеки, децентралізації та масштабованості), виникло безліч криптографічних технологій:
Серед них, повна гомоморфна криптографія, як одна з найновіших криптографічних технологій, вважається ключем до вирішення проблем безпеки в еру штучного інтелекту.
Щодо викликів безпеки систем штучного інтелекту, таких як Manus, FHE пропонує багаторівневі рішення:
Дані на рівні: Уся інформація, введена користувачем (включаючи біометричні дані, голос тощо), обробляється в зашифрованому стані, навіть сама система ШІ не може розшифрувати вихідні дані.
Алгоритмічний рівень: реалізація "тренування зашифрованих моделей" за допомогою FHE, що дозволяє навіть розробникам не мати змоги безпосередньо спостерігати за процесом прийняття рішень AI.
Співпраця: Комунікація між кількома агентами здійснюється за допомогою порогового шифрування, і навіть якщо окремий вузол буде зламаний, це не призведе до витоку глобальних даних.
Хоча технології безпеки Web3 можуть здаватися далекими для звичайних користувачів, вони тісно пов'язані з інтересами кожного. У цьому складному цифровому світі, якщо не вжити активних заходів захисту, важко уникнути ризиків інформаційної безпеки.
У сфері децентралізованої ідентичності проект uPort був запущений у 2017 році на основній мережі Ethereum. Що стосується моделі безпечності без довіри, проект NKN випустив основну мережу у 2019 році. А Mind Network є першим проектом FHE, який був запущений на основній мережі, і співпрацює з відомими установами, такими як ZAMA, Google та DeepSeek.
Незважаючи на те, що ранні проекти безпеки могли не привернути широкої уваги, з швидким розвитком технології штучного інтелекту важливість сфери безпеки стає все більш очевидною. Чи зможе Mind Network зламати цю тенденцію і стати лідером у сфері безпеки, варто продовжувати стежити.
З наближенням технологій штучного інтелекту до рівня людського інтелекту, нам більше потрібні передові системи захисту. Цінність FHE полягає не лише у вирішенні поточних проблем, але й у створенні основи для майбутньої ери потужного штучного інтелекту. На шляху до AGI FHE більше не є необов'язковим елементом, а є необхідною умовою для забезпечення безпеки розвитку штучного інтелекту.