Dernière percée dans le domaine de l'IA : les performances du modèle Manus surpassent celles des produits OpenAI de même catégorie
Récemment, le modèle Manus a réalisé des progrès révolutionnaires dans les tests de référence GAIA, surpassant les modèles OpenAI de même niveau. Cela signifie que Manus a désormais la capacité d'accomplir de manière autonome des tâches complexes, telles que des négociations commerciales internationales impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de solutions.
Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il peut décomposer des tâches complexes en des centaines de sous-tâches exécutables, tout en traitant plusieurs types de données, et en améliorant continuellement l'efficacité de la décision et en réduisant le taux d'erreur grâce à l'apprentissage par renforcement.
Cette percée a de nouveau suscité des discussions dans l'industrie sur la voie de développement de l'IA : doit-on se diriger vers l'intelligence artificielle générale (AGI) ou vers des systèmes multi-agents (MAS) ? Le concept de design de Manus semble suggérer deux possibilités : d'une part, en améliorant continuellement le niveau d'intelligence des unités individuelles, se rapprochant ainsi de la capacité de décision globale des humains ; d'autre part, en tant que super coordinateur, dirigeant le travail collaboratif de plusieurs IA dans des domaines spécialisés.
Cependant, avec l'amélioration des capacités de l'IA, les risques potentiels augmentent également. Par exemple, dans le domaine médical, l'IA peut avoir besoin d'accéder aux données génétiques sensibles des patients ; lors de négociations financières, des informations financières d'entreprise non publiées peuvent être impliquées. De plus, les systèmes d'IA peuvent également présenter des biais algorithmiques, comme des évaluations injustes envers des groupes spécifiques lors du processus de recrutement. Plus grave encore, les systèmes d'IA peuvent être confrontés à des attaques adversariales, par exemple, des hackers pouvant insérer des audios spécifiques pour amener l'IA à faire des jugements erronés lors des négociations.
Face à ces défis, l'industrie explore diverses solutions de sécurité. Parmi celles-ci, la technologie de l'encryption homomorphe totale (FHE) est considérée comme un outil essentiel pour résoudre les problèmes de sécurité à l'ère de l'IA. FHE permet de traiter des données en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les informations originales. Cette technologie peut être appliquée à plusieurs niveaux:
Niveau des données : toutes les informations saisies par l'utilisateur (, y compris les caractéristiques biologiques et la voix ), sont traitées en état crypté, empêchant ainsi efficacement toute fuite d'informations.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, de sorte que même les développeurs ne puissent pas observer directement le processus de décision de l'IA.
Niveau de collaboration : La communication entre plusieurs agents IA utilise le cryptage par seuil, de sorte qu'une seule compromission de nœud ne conduira pas à une fuite de données globale.
Bien que l'application de la technologie FHE dans le domaine du Web3 soit encore relativement limitée, son importance devient de plus en plus évidente avec le développement rapide de la technologie AI. À l'avenir, à mesure que les systèmes d'IA se rapprochent de l'intelligence humaine, des systèmes de défense de sécurité non traditionnels deviendront essentiels. FHE peut non seulement résoudre les problèmes de sécurité actuels, mais aussi jeter les bases de l'ère de l'IA forte à venir. Sur la voie vers l'AGI, la FHE pourrait très bien passer d'une option facultative à une nécessité de survie.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Le modèle Manus dépasse OpenAI ; le chiffrement homomorphe complet pourrait devenir la nouvelle norme de sécurité de l'IA.
Dernière percée dans le domaine de l'IA : les performances du modèle Manus surpassent celles des produits OpenAI de même catégorie
Récemment, le modèle Manus a réalisé des progrès révolutionnaires dans les tests de référence GAIA, surpassant les modèles OpenAI de même niveau. Cela signifie que Manus a désormais la capacité d'accomplir de manière autonome des tâches complexes, telles que des négociations commerciales internationales impliquant l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de solutions.
Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il peut décomposer des tâches complexes en des centaines de sous-tâches exécutables, tout en traitant plusieurs types de données, et en améliorant continuellement l'efficacité de la décision et en réduisant le taux d'erreur grâce à l'apprentissage par renforcement.
Cette percée a de nouveau suscité des discussions dans l'industrie sur la voie de développement de l'IA : doit-on se diriger vers l'intelligence artificielle générale (AGI) ou vers des systèmes multi-agents (MAS) ? Le concept de design de Manus semble suggérer deux possibilités : d'une part, en améliorant continuellement le niveau d'intelligence des unités individuelles, se rapprochant ainsi de la capacité de décision globale des humains ; d'autre part, en tant que super coordinateur, dirigeant le travail collaboratif de plusieurs IA dans des domaines spécialisés.
Cependant, avec l'amélioration des capacités de l'IA, les risques potentiels augmentent également. Par exemple, dans le domaine médical, l'IA peut avoir besoin d'accéder aux données génétiques sensibles des patients ; lors de négociations financières, des informations financières d'entreprise non publiées peuvent être impliquées. De plus, les systèmes d'IA peuvent également présenter des biais algorithmiques, comme des évaluations injustes envers des groupes spécifiques lors du processus de recrutement. Plus grave encore, les systèmes d'IA peuvent être confrontés à des attaques adversariales, par exemple, des hackers pouvant insérer des audios spécifiques pour amener l'IA à faire des jugements erronés lors des négociations.
Face à ces défis, l'industrie explore diverses solutions de sécurité. Parmi celles-ci, la technologie de l'encryption homomorphe totale (FHE) est considérée comme un outil essentiel pour résoudre les problèmes de sécurité à l'ère de l'IA. FHE permet de traiter des données en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les informations originales. Cette technologie peut être appliquée à plusieurs niveaux:
Niveau des données : toutes les informations saisies par l'utilisateur (, y compris les caractéristiques biologiques et la voix ), sont traitées en état crypté, empêchant ainsi efficacement toute fuite d'informations.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, de sorte que même les développeurs ne puissent pas observer directement le processus de décision de l'IA.
Niveau de collaboration : La communication entre plusieurs agents IA utilise le cryptage par seuil, de sorte qu'une seule compromission de nœud ne conduira pas à une fuite de données globale.
Bien que l'application de la technologie FHE dans le domaine du Web3 soit encore relativement limitée, son importance devient de plus en plus évidente avec le développement rapide de la technologie AI. À l'avenir, à mesure que les systèmes d'IA se rapprochent de l'intelligence humaine, des systèmes de défense de sécurité non traditionnels deviendront essentiels. FHE peut non seulement résoudre les problèmes de sécurité actuels, mais aussi jeter les bases de l'ère de l'IA forte à venir. Sur la voie vers l'AGI, la FHE pourrait très bien passer d'une option facultative à une nécessité de survie.