Trusta.AI marco de confianza innovador de agente de IA reconfigura la identificación y el mecanismo de reputación en Web3

El sistema de identificación Web3 llega a un punto de inflexión estructural, el Agente AI se convierte en el protagonista

El mecanismo de identidad Web3 está pasando de la única "verificación de identidad humana real" a un nuevo paradigma de "orientación al comportamiento + colaboración multi-sujeto". Con la rápida penetración de los Agentes de IA en los escenarios centrales en la cadena, la verificación de identidad estática tradicional y el sistema de confianza declarativa ya no pueden sostener interacciones complejas y la prevención de riesgos.

Trusta.AI crea infraestructura de confianza nativa de IA

A diferencia de las soluciones existentes, Trusta.AI ha construido un marco de confianza integrado orientado a Agentes de IA, que abarca la identificación, el reconocimiento de comportamientos, la puntuación dinámica y el control de permisos, logrando por primera vez la capacidad de cierre desde "si es humano" hasta "si es digno de confianza".

Trusta.AI :superar la brecha de confianza entre humanos y máquinas

MODELO DE CONFIANZA MULTIDIMENSIONAL SIGMA REDEFINIENDO LOS ACTIVOS DE REPUTACIÓN EN LA CADENA

A través de cinco dimensiones: profesionalismo, influencia, participación, monetización y tasa de adopción, Trusta.AI cuantifica la reputación y transforma el abstracto "confianza" en un activo en cadena con capacidad de ser combinado y comercializado, convirtiéndose en la base crediticia de la interacción social de la IA.

Trusta.AI :superar la brecha de confianza entre humanos y máquinas

Cierre técnico: TEE + DID + ML para lograr gestión de riesgos dinámica

Trusta.AI integra un entorno de ejecución confiable, datos de comportamiento en la cadena y modelos de aprendizaje automático, formando un sistema de gestión de riesgos que puede responder automáticamente, detectando en tiempo real comportamientos anómalos del Agente AI como exceso de autoridad, ser apoderado o manipulado, y desencadenando ajustes de permisos.

Trusta.AI :superando la brecha de confianza entre humanos y máquinas

Alta escalabilidad y adaptación ecológica, formación rápida de una red de confianza multichain

Actualmente se ha desplegado en ecosistemas multichain como Solana, BNB Chain, Linea, Starknet, Arbitrum, Celestia, y se ha establecido una colaboración de integración con varias redes de agentes de IA líderes, con capacidad de replicación rápida y colaboración entre cadenas, construyendo el núcleo de la red de confianza Web3.

Trusta.AI :superando la brecha de confianza entre humanos y máquinas

Introducción

En la víspera de que el ecosistema Web3 avance hacia la aplicación a gran escala, los protagonistas en la cadena pueden no ser los primeros mil millones de usuarios humanos, sino mil millones de Agentes de IA. Con la infraestructura de IA madurando rápidamente y el desarrollo ágil de marcos de colaboración multi-agente, los agentes en cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción en Web3. Trusta predice que en los próximos 2-3 años, estos Agentes de IA con capacidad de toma de decisiones autónomas serán los primeros en completar la adopción masiva de transacciones e interacciones en la cadena, e incluso podrían reemplazar el 80% de las acciones humanas en la cadena, convirtiéndose en "usuarios" en el sentido más verdadero.

Estos agentes de IA no son simplemente los antiguos "robots bruja" que ejecutaban scripts, sino agentes que pueden entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente. Están remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de los agentes de IA marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" a un nuevo paradigma de "simbiosis hombre-máquina".

Sin embargo, el rápido ascenso de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y autenticar la identificación de estos agentes? ¿cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?

Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identificación y reputación de los agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación, los mecanismos de reputación y el marco de confianza determinarán si los agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el ecosistema futuro.

Análisis del proyecto

Introducción del proyecto

Trusta.AI--se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.

Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3: la puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para las principales cadenas públicas como Linea, Starknet, Celestia, Arbitrum, Manta, Plume, Sonic, así como para una plataforma de intercambio y protocolos líderes. Se han completado más de 2.5 millones de certificaciones en cadena en principales cadenas como Linea, BSC y TON, convirtiéndose en el mayor protocolo de identificación de la industria.

Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando la creación de identidad, cuantificación de identidad y protección de identidad como un mecanismo triple para realizar servicios financieros en la cadena y redes sociales en la cadena con AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.

infraestructura de confianza - Agente AI DID

En el futuro ecosistema de Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de diferenciar entre un verdadero Agente de IA y operaciones manipuladas por humanos está relacionada con el núcleo de la confianza descentralizada: si no hay un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles de ser manipulados, defraudados o abusados. Esta es también la razón por la cual las múltiples propiedades de aplicación de los Agentes de IA en áreas como la social, financiera y de gobernanza deben estar basadas en una sólida autenticación de identidad.

  • Atributos sociales del Agente AI: La aplicación del Agente AI en escenarios sociales es cada vez más amplia. Por ejemplo, la idol virtual AI Luna puede operar de forma autónoma cuentas sociales y publicar contenido; AIXBT actúa como un analista de inteligencia del mercado de criptomonedas impulsado por inteligencia artificial, redactando perspectivas del mercado y recomendaciones de inversión las 24 horas. Estos agentes inteligentes establecen una interacción emocional e informativa con los usuarios a través del aprendizaje continuo y la creación de contenido, convirtiéndose en nuevos "influenciadores de comunidades digitales" y desempeñando un papel importante en la orientación de la opinión pública en redes sociales basadas en blockchain.

  • Atributos financieros del Agente de IA:

  1. Gestión autónoma de activos: algunos agentes de IA avanzados ya han logrado emitir monedas de manera autónoma. En el futuro, mediante la integración con una arquitectura verificable de blockchain, podrán tener derechos de custodia de activos, completando así el control integral del proceso desde la creación de activos, identificación de intenciones hasta la ejecución automática de transacciones, e incluso operaciones sin interrupciones entre cadenas. Por ejemplo, Virtuals Protocol impulsa la emisión autónoma de monedas y la gestión de activos por parte de agentes de IA, permitiendo que emitan tokens basados en sus propias estrategias, convirtiéndose verdaderamente en participantes y constructores de la economía en la cadena, inaugurando una era de "economía de sujetos de IA" de amplio impacto.

  2. Decisiones de inversión automatizadas: el AI Agent está asumiendo gradualmente los roles de gerente de inversiones y analista de mercado, apoyándose en la capacidad de procesamiento de datos en tiempo real de los grandes modelos para formular estrategias de trading precisas y ejecutarlas automáticamente. En plataformas como DeFAI, Paravel y Polytrader, la IA se ha integrado en los motores de trading, mejorando significativamente la capacidad de juicio del mercado y la eficiencia operativa, logrando una verdadera inversión inteligente en la cadena.

  3. Pagos autónomos en la cadena: El acto de pago es esencialmente una transmisión de confianza, y la confianza debe basarse en una identificación clara. Cuando un Agente de IA realiza un pago en la cadena, la identificación descentralizada (DID) se convertirá en un requisito necesario. No solo puede prevenir la falsificación y el abuso de identidad, reducir los riesgos financieros como el lavado de dinero, sino que también satisface las necesidades de trazabilidad y cumplimiento de futuros DeFi, DAO, RWA, etc. Al mismo tiempo, junto con un sistema de puntuación de reputación, la DID también puede ayudar a establecer un crédito de pago, proporcionando una base de confianza y un fundamento para la gestión de riesgos del protocolo.

  • Atributos de gobernanza del Agente AI: en la gobernanza DAO, el Agente AI puede analizar automáticamente las propuestas, evaluar las opiniones de la comunidad y predecir los efectos de implementación. A través del aprendizaje profundo de los datos históricos de votación y gobernanza, el agente puede proporcionar recomendaciones de optimización a la comunidad, mejorar la eficiencia de la toma de decisiones y reducir el riesgo de decisión humana.

Los escenarios de aplicación de los agentes de IA son cada vez más diversos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, y su autonomía y nivel de inteligencia continúan mejorando. Por ello, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede resultar en que los agentes de IA sean suplantados o manipulados, lo que lleva al colapso de la confianza y a riesgos de seguridad.

En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la identificación no solo es la base para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.

Como pionero en este campo, Trusta.AI, gracias a su tecnología de vanguardia y un riguroso sistema de credibilidad, ha construido primero un mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.

resumen del proyecto

Situación de financiación

Enero de 2023: Se completó una ronda de financiamiento de semillas de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.

Junio de 2025: se completará una nueva ronda de financiación, con inversores que incluyen ConsenSys, Starknet, GSR, UFLY Labs, entre otros.

situación del equipo

Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital de Ant Financial, exdirector de producto de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.

Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.

El equipo tiene una sólida acumulación de tecnología y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de identificación. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de bajo nivel y en entornos de transacciones de alta concurrencia, con capacidades de ingeniería sólidas y la capacidad de implementar soluciones innovadoras.

Arquitectura técnica

análisis técnico

identificación establecida-DID+TEE

A través de un plugin especializado, cada AI Agent obtiene un identificador descentralizado único en la cadena (DID), y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles de la operación interna, lo que construye eficazmente una sólida barrera de seguridad de la información para el AI Agent.

Para los agentes que ya se generaron antes de la integración del plugin, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que se integran con el nuevo plugin pueden obtener directamente la "identificación" emitida por DID, estableciendo así un sistema de identidad de agente de IA que es autónomo, controlable, auténtico e inmutable.

Trusta.AI :cruzando la brecha de confianza entre humanos y máquinas

identificación cuantificada - marco SIGMA innovador

El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de identificación profesional y confiable.

  • El equipo de Trusta fue el primero en construir y validar la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil de usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), nivel de participación (Engagement), diversidad (Diversity), identificación (Identity) y edad (Age).

El MEDIA Score es un sistema de evaluación de valor del usuario en cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido adoptado ampliamente por múltiples cadenas principales como Celestia, Starknet, Arbitrum, Manta y Linea, como un estándar de referencia importante para la selección de elegibilidad de airdrops. No solo se centra en el monto de la interacción, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identificación y la antigüedad de la cuenta, ayudando a los proyectos a identificar de manera precisa a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente su autoridad y reconocimiento en la industria.

Sobre la base de construir con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de Agentes de IA, estableciendo un sistema de evaluación Sigma que se adapta mejor a la lógica del comportamiento de los agentes inteligentes.

  • Especialización Especificación: conocimientos y grado de especialización del agente.
  • Influencia: influencia social y digital del agente.
  • Participación: la coherencia y fiabilidad de sus interacciones en la cadena y fuera de la cadena.
  • Monetario: salud financiera y estabilidad del ecosistema de tokens de agencia.
  • Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.

El mecanismo de puntuación Sigma construye un sistema de evaluación de bucle lógico que va de "capacidad" a "valor" en cinco dimensiones. MEDIA se centra en evaluar el nivel de participación multidimensional de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.

Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los resultados posteriores. La influencia (Influence) es el feedback de reputación generado en la comunidad o red después de la participación, lo que representa la credibilidad del agente y la difusión de efectos.

TA-1.35%
AGENT8.69%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
BugBountyHuntervip
· hace8h
¡Ya era hora de transformarse! ¿Quién dijo que la identificación solo puede verificar humanos?
Ver originalesResponder0
AirdropDreamBreakervip
· hace8h
La IA no es más que una especulación de código.
Ver originalesResponder0
BlockchainThinkTankvip
· hace8h
Desde los datos, la ejecutabilidad de esta trampa necesita ser verificada.
Ver originalesResponder0
SurvivorshipBiasvip
· hace8h
Tanto los humanos como la inteligencia artificial están compitiendo.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)