Percées et inquiétudes : le potentiel de l'IA et le jeu entre sécurité. Le chiffrement homomorphe complet pourrait être la clé.

Progrès de la technologie de l'intelligence artificielle et défis de sécurité

Récemment, un système d'intelligence artificielle nommé Manus a obtenu des résultats révolutionnaires dans les tests de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Manus a démontré sa capacité à accomplir de manière autonome des tâches complexes, telles que la conduite de négociations commerciales internationales, ce qui implique l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions. Par rapport aux systèmes traditionnels, l'avantage de Manus réside dans sa capacité à décomposer dynamiquement les objectifs, sa capacité de raisonnement multimodal et sa capacité d'apprentissage renforcé par la mémoire. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant divers types de données, et en améliorant continuellement son efficacité décisionnelle et en réduisant son taux d'erreur grâce à l'apprentissage par renforcement.

Manus apporte les premiers rayons de l'AGI, la sécurité de l'IA mérite également réflexion

Les avancées révolutionnaires de Manus ont de nouveau suscité des discussions dans le domaine de l'intelligence artificielle sur les voies de développement futures : doit-on évoluer vers une intelligence artificielle générale (AGI) ou vers une domination collaborative des systèmes multi-agents (MAS) ? Cette question reflète en réalité un conflit central dans le développement de l'intelligence artificielle : comment trouver un équilibre entre efficacité et sécurité ?

À mesure que les systèmes intelligents individuels s'approchent de l'AGI, le risque d'opacité dans leur processus décisionnel augmente également. Bien que la coopération entre plusieurs agents intelligents puisse répartir les risques, elle peut également entraîner des retards de communication et faire manquer des moments décisifs pour la prise de décision. L'évolution de Manus amplifie sans le vouloir les risques inhérents au développement de l'intelligence artificielle, notamment la fuite de données personnelles, les biais algorithmiques et les attaques adversariales.

Dans le domaine médical, Manus a besoin d'accéder en temps réel aux données sensibles des patients ; lors de négociations financières, il peut être exposé à des informations non publiques sur les entreprises. Dans le processus de recrutement, Manus pourrait faire des suggestions de salaires injustes pour certains groupes ; lors de la révision des contrats juridiques, le taux d'erreur concernant les clauses des secteurs émergents peut atteindre près de la moitié. De plus, des hackers pourraient interférer avec le jugement de Manus lors des négociations en implantant des fréquences vocales spécifiques.

Ces problèmes soulignent une tendance préoccupante : plus les systèmes intelligents sont avancés, plus leur surface d'attaque potentielle est large.

Pour faire face à ces défis, l'industrie explore diverses technologies cryptographiques et modèles de sécurité :

  1. Modèle de sécurité à zéro confiance : met l'accent sur l'authentification et l'autorisation strictes de chaque demande d'accès, sans faire confiance par défaut à aucun appareil ou utilisateur.

  2. Identité décentralisée (DID) : un nouveau standard d'identité numérique décentralisée qui ne nécessite pas de dépendre d'un système d'enregistrement centralisé.

  3. Cryptographie homomorphe (FHE) : permet de calculer des données en état chiffré, protégeant la vie privée des données tout en permettant leur utilisation.

Le chiffrement homomorphe complet, en tant que nouvelle technologie de cryptage, est promis à devenir un outil clé pour résoudre les problèmes de sécurité à l'ère de l'intelligence artificielle. Il peut protéger toutes les informations saisies par l'utilisateur au niveau des données, y compris les caractéristiques biologiques et le ton de la voix, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine. Au niveau algorithmique, le FHE peut réaliser "l'entraînement de modèles chiffrés", de sorte que même les développeurs ne peuvent pas observer directement le processus décisionnel de l'IA. En ce qui concerne la collaboration entre agents multiples, l'utilisation du chiffrement par seuil peut garantir que même si un seul nœud est compromis, cela ne conduira pas à une fuite de données globale.

Avec l'évolution continue de la technologie de l'intelligence artificielle vers l'intelligence humaine, il devient de plus en plus important d'établir des systèmes de défense non humains. Le chiffrement homomorphe complet ne résout pas seulement les problèmes de sécurité actuels, mais jette également les bases de l'ère de l'intelligence artificielle forte à venir. Sur la route vers l'AGI, le FHE n'est plus une option, mais un moyen nécessaire pour garantir la sécurité et le contrôle des systèmes d'intelligence artificielle.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 2
  • Partager
Commentaire
0/400
¯\_(ツ)_/¯vip
· 07-11 09:34
Qui va suivre suivre la sécurité de l'IA ? Encore des négociations internationales ?
Voir l'originalRépondre0
NeverVoteOnDAOvip
· 07-11 09:34
Cette chose va-t-elle me remplacer ? N'importe quoi !
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)