Прогрес технологій штучного інтелекту та виклики безпеки
Нещодавно штучна інтелект-система під назвою Manus досягла проривних результатів у GAIA бенчмаркінгу, її продуктивність перевищила результати інших великих мовних моделей того ж рівня. Manus продемонстрував здатність самостійно виконувати складні завдання, такі як проведення міжнародних бізнес-угод, що включає аналіз умов контракту, розробку стратегій та генерацію планів. Переваги Manus у порівнянні з традиційними системами полягають у його динамічній здатності розбивати цілі, крос-модальній логіці та покращеному навчанні пам'яті. Він може розбивати великі завдання на сотні виконуваних підзадач, одночасно обробляючи різні типи даних, і постійно підвищувати ефективність своїх рішень за допомогою підкріплювального навчання, зменшуючи ймовірність помилок.
Проривні досягнення Manus знову викликали дискусії у сфері штучного інтелекту щодо майбутніх шляхів розвитку: чи рухатись у напрямку загального штучного інтелекту (AGI), чи переважно покладатися на співпрацю багаточисельних агентних систем (MAS)? Це питання насправді відображає основну суперечність у розвитку штучного інтелекту: як досягти балансу між ефективністю та безпекою?
З наближенням одиничних інтелектуальних систем до AGI ризики непрозорості їхнього процесу прийняття рішень також зростають. Хоча співпраця багатьох агентів може розподілити ризики, затримка в комунікації може призвести до втрати критично важливих моментів для прийняття рішень. Еволюція Manus безсумнівно посилює вроджені ризики розвитку штучного інтелекту, включаючи витоки даних, упередженість алгоритмів та атаки зловмисників.
У медичних сценах Manus потребує доступу до чутливих даних пацієнтів у реальному часі; під час фінансових переговорів він може отримати доступ до неопублікованої інформації підприємства. У процесі найму Manus може дати несправедливі пропозиції щодо заробітної плати для певних груп; під час перевірки юридичних контрактів ймовірність помилок у трактуванні умов нових галузей може наближатися до половини. Крім того, хакери можуть впливати на рішення Manus під час переговорів, впроваджуючи специфічні частоти голосу.
Ці питання підкреслюють тривожну тенденцію: чим більш розвинені інтелектуальні системи, тим ширшим є їх потенційна атака.
Щоб впоратися з цими викликами, галузь досліджує різні криптографічні технології та моделі безпеки:
Модель нульового довіри: підкреслює необхідність сувірної перевірки особи та авторизації для кожного запиту на доступ, не довіряючи жодному пристрою чи користувачу за замовчуванням.
Децентралізована ідентичність (DID): новий тип стандарту децентралізованої цифрової ідентичності, який не потребує централізованих реєстраційних систем.
Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення над даними в зашифрованому стані, захищаючи конфіденційність даних, одночасно забезпечуючи їх використання.
Повна гомоморфна криптографія, як нова технологія шифрування, має потенціал стати ключовим інструментом для вирішення проблем безпеки в епоху штучного інтелекту. Вона може захищати всі дані, введені користувачем, на рівні даних, включаючи біометричні дані та тон голосу, навіть сама система ШІ не може розшифрувати оригінальні дані. На алгоритмічному рівні повна гомоморфна криптографія може реалізувати "навчання моделі з шифруванням", що робить неможливим для розробників безпосередньо спостерігати за процесом прийняття рішень ШІ. У співпраці багатьох агентів використання порогового шифрування може забезпечити, що навіть якщо окремий вузол буде зламано, це не призведе до витоку глобальних даних.
З розвитком технологій штучного інтелекту, які дедалі більше наближаються до людського інтелекту, створення нелюдської системи захисту стає дедалі важливішим. Повна гомоморфна криптографія не лише вирішує поточні проблеми безпеки, але й закладає основу для епохи потужного штучного інтелекту в майбутньому. На шляху до AGI FHE вже не є варіантом, а є необхідним засобом для забезпечення безпеки та контрольованості систем штучного інтелекту.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 лайків
Нагородити
8
2
Поділіться
Прокоментувати
0/400
¯\_(ツ)_/¯
· 07-11 09:34
Хто буде підписатися на безпеку штучного інтелекту? Ще й tm міждержавні переговори?
Прорив та побоювання: потенціал ШІ та гра безпеки Повністю гомоморфне шифрування може стати ключем
Прогрес технологій штучного інтелекту та виклики безпеки
Нещодавно штучна інтелект-система під назвою Manus досягла проривних результатів у GAIA бенчмаркінгу, її продуктивність перевищила результати інших великих мовних моделей того ж рівня. Manus продемонстрував здатність самостійно виконувати складні завдання, такі як проведення міжнародних бізнес-угод, що включає аналіз умов контракту, розробку стратегій та генерацію планів. Переваги Manus у порівнянні з традиційними системами полягають у його динамічній здатності розбивати цілі, крос-модальній логіці та покращеному навчанні пам'яті. Він може розбивати великі завдання на сотні виконуваних підзадач, одночасно обробляючи різні типи даних, і постійно підвищувати ефективність своїх рішень за допомогою підкріплювального навчання, зменшуючи ймовірність помилок.
Проривні досягнення Manus знову викликали дискусії у сфері штучного інтелекту щодо майбутніх шляхів розвитку: чи рухатись у напрямку загального штучного інтелекту (AGI), чи переважно покладатися на співпрацю багаточисельних агентних систем (MAS)? Це питання насправді відображає основну суперечність у розвитку штучного інтелекту: як досягти балансу між ефективністю та безпекою?
З наближенням одиничних інтелектуальних систем до AGI ризики непрозорості їхнього процесу прийняття рішень також зростають. Хоча співпраця багатьох агентів може розподілити ризики, затримка в комунікації може призвести до втрати критично важливих моментів для прийняття рішень. Еволюція Manus безсумнівно посилює вроджені ризики розвитку штучного інтелекту, включаючи витоки даних, упередженість алгоритмів та атаки зловмисників.
У медичних сценах Manus потребує доступу до чутливих даних пацієнтів у реальному часі; під час фінансових переговорів він може отримати доступ до неопублікованої інформації підприємства. У процесі найму Manus може дати несправедливі пропозиції щодо заробітної плати для певних груп; під час перевірки юридичних контрактів ймовірність помилок у трактуванні умов нових галузей може наближатися до половини. Крім того, хакери можуть впливати на рішення Manus під час переговорів, впроваджуючи специфічні частоти голосу.
Ці питання підкреслюють тривожну тенденцію: чим більш розвинені інтелектуальні системи, тим ширшим є їх потенційна атака.
Щоб впоратися з цими викликами, галузь досліджує різні криптографічні технології та моделі безпеки:
Модель нульового довіри: підкреслює необхідність сувірної перевірки особи та авторизації для кожного запиту на доступ, не довіряючи жодному пристрою чи користувачу за замовчуванням.
Децентралізована ідентичність (DID): новий тип стандарту децентралізованої цифрової ідентичності, який не потребує централізованих реєстраційних систем.
Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення над даними в зашифрованому стані, захищаючи конфіденційність даних, одночасно забезпечуючи їх використання.
Повна гомоморфна криптографія, як нова технологія шифрування, має потенціал стати ключовим інструментом для вирішення проблем безпеки в епоху штучного інтелекту. Вона може захищати всі дані, введені користувачем, на рівні даних, включаючи біометричні дані та тон голосу, навіть сама система ШІ не може розшифрувати оригінальні дані. На алгоритмічному рівні повна гомоморфна криптографія може реалізувати "навчання моделі з шифруванням", що робить неможливим для розробників безпосередньо спостерігати за процесом прийняття рішень ШІ. У співпраці багатьох агентів використання порогового шифрування може забезпечити, що навіть якщо окремий вузол буде зламано, це не призведе до витоку глобальних даних.
З розвитком технологій штучного інтелекту, які дедалі більше наближаються до людського інтелекту, створення нелюдської системи захисту стає дедалі важливішим. Повна гомоморфна криптографія не лише вирішує поточні проблеми безпеки, але й закладає основу для епохи потужного штучного інтелекту в майбутньому. На шляху до AGI FHE вже не є варіантом, а є необхідним засобом для забезпечення безпеки та контрольованості систем штучного інтелекту.