Trusta.AI: Puente de confianza entre humanos y máquinas
1. Introducción
El ecosistema Web3 está avanzando hacia aplicaciones a gran escala, y los protagonistas en la cadena podrían ser mil millones de agentes de IA en lugar de usuarios humanos. Con la madurez de la infraestructura de IA y el desarrollo de marcos de colaboración entre múltiples agentes, los agentes en la cadena impulsados por IA están convirtiéndose en la fuerza principal de interacción. En los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónomas podrían reemplazar el 80% del comportamiento humano en la cadena, convirtiéndose en verdaderos "usuarios" en la cadena.
El Agente de IA no solo ejecuta scripts, sino que también comprende el contexto, aprende continuamente, toma decisiones complejas y está remodelando el orden en la cadena, promoviendo el flujo financiero e incluso guiando la votación de gobernanza y las tendencias del mercado. La aparición del Agente de IA marca la evolución del ecosistema Web3 de un paradigma centrado en la "participación humana" a uno nuevo de "simbiosis humano-máquina".
Sin embargo, el rápido auge de los Agentes de IA también trae desafíos: ¿cómo identificar y certificar la identidad de estos agentes? ¿Cómo juzgar la credibilidad de su comportamiento? ¿Cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Establecer una infraestructura en la cadena para verificar la identidad y la reputación de los Agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y los marcos de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Introducción del proyecto
Trusta.AI se dedica a construir infraestructuras de identidad y reputación Web3 a través de IA.
Trusta.AI ha lanzado el sistema de evaluación del valor del usuario Web3 - puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para múltiples cadenas públicas de primer nivel, intercambios y protocolos líderes. Se han completado más de 2.5 millones de certificaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando el establecimiento de identidad, la cuantificación de identidad y la protección de identidad como un mecanismo triple para realizar servicios financieros en la cadena y redes sociales de AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente AI DID
En el futuro ecosistema de Web3, los Agentes de IA jugarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de ella. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y operaciones manipuladas por humanos está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es precisamente la razón por la que las múltiples aplicaciones de los Agentes de IA en áreas como lo social, financiero y de gobernanza deben basarse en una sólida autenticación de identidad.
Los escenarios de aplicación de los agentes de IA son cada vez más diversos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel creciente de autonomía e inteligencia. Por esta razón, es crucial garantizar que cada agente inteligente tenga una identidad única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que provocaría un colapso de la confianza y riesgos de seguridad.
En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, gracias a su sólida capacidad tecnológica y un riguroso sistema de reputación, ha construido primero un completo mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sostenible de la economía inteligente de Web3.
2.3 Resumen del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: Se completó una financiación de ronda semilla de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con otros participantes como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiación, con inversores que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital de Ant Financial, exdirector de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: Co-fundador y CTO, ex jefe del laboratorio de seguridad de IA de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación de tecnología y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de autenticación. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de base y entornos de transacciones de alta concurrencia, poseyendo una sólida capacidad de ingeniería y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID+TEE
A través de un complemento especializado, cada agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles de la operación interna, construyendo así una sólida barrera de seguridad de la información para los agentes de IA.
Para los agentes que ya se generaron antes de la integración del plugin, dependemos del mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que se integran al plugin nuevo, pueden obtener directamente el "certificado de identificación" emitido por el DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, controlable, auténtico e inmutable.
3.1.2 Cuantificación de identidad - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta construyó y verificó por primera vez la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil de usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), nivel de participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y métodos rigurosos, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como un estándar de referencia importante para la selección de calificaciones de airdrop. No solo se centra en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y equidad de la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma más acorde con la lógica del comportamiento de los agentes inteligentes.
Especialización: el conocimiento y el grado de especialización del agente.
Influencia: influencia social y digital de los agentes.
Participación: la consistencia y confiabilidad de sus interacciones en la cadena y fuera de la cadena.
Monetario: salud financiera y estabilidad del ecosistema de tokens de agente.
Tasa de adopción: Frecuencia y eficiencia en el uso de agentes de IA.
El mecanismo de puntuación Sigma construye un sistema de evaluación de lógica cerrada que va de "capacidad" a "valor" a través de cinco grandes dimensiones. MEDIA se centra en evaluar el nivel de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la profesionalidad y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se está invirtiendo de manera estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los resultados posteriores. La influencia (Influence) es el feedback de reputación generado en la comunidad o red tras la participación, que representa la credibilidad del agente y el efecto de difusión. La evaluación monetaria (Monetary) determina si tiene capacidad de acumulación de valor y estabilidad financiera en el sistema económico, estableciendo la base para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una manifestación integral, representando el grado de aceptación del agente en el uso real, que es la validación final de todas las capacidades y actuaciones previas.
Este sistema avanza en capas, con una estructura clara, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y del valor de la IA, convirtiendo las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha avanzado en el establecimiento de colaboraciones con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, lo que muestra su gran potencial de aplicación en la gestión de identidades de agentes de IA y la construcción de sistemas de reputación, y se está convirtiendo gradualmente en el motor central que impulsa la construcción de infraestructuras de IA confiables.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resiliente y de alta confianza, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que permite la supervisión en tiempo real de agentes inteligentes ya certificados, para determinar si están siendo controlados ilegalmente, si han sufrido un ataque, o si han sido intervenidos por humanos no autorizados. El sistema identifica las desviaciones que pueden ocurrir durante el funcionamiento del agente a través del análisis de comportamiento y el aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de la política y el marco establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada proceso de interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena y califica e indexa su confianza en base a los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recolección e identificación de todos los agentes de IA en la red y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice agregado unificada —AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
Consulta y verificación de identidad de usuarios humanos:
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un agente de IA, para determinar si es de confianza.
Escenario de chat grupal: en un equipo de proyecto que utiliza un Bot de IA para gestionar la comunidad o para hablar, los usuarios de la comunidad pueden verificar a través del Dashboard si esa IA es un verdadero agente autónomo, evitando ser engañados o manipulados por "pseudo-IAs".
AI Agent invoca automáticamente el índice y la validación:
Las IA pueden leer directamente la interfaz de índice, logrando una rápida confirmación de la identidad y la reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.
Escenario de supervisión financiera: Si un agente de IA emite monedas de forma autónoma, el sistema puede indexar directamente su DID y calificación, determinar si es un Agente de IA certificado y vincular automáticamente a ciertas plataformas de datos, ayudando a rastrear la circulación de activos y la conformidad de la emisión.
Escenario de votación de gobernanza: Al introducir la votación con IA en las propuestas de gobernanza, el sistema puede verificar si el iniciador o los participantes de la votación son verdaderos agentes de IA, evitando que los derechos de voto sean controlados y abusados por humanos.
Préstamos de crédito DeFi: los protocolos de préstamos pueden otorgar a los Agentes de IA diferentes montos de crédito basado en el sistema de puntuación SIGMA, formando relaciones financieras nativas entre los agentes.
El DID del Agente de IA ya no es solo una "identidad", sino que se ha convertido en el soporte fundamental para construir funciones centrales como la colaboración confiable, el cumplimiento financiero y la gobernanza comunitaria, convirtiéndose en la infraestructura básica necesaria para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos los nodos confirmados como seguros y confiables forman una red estrechamente interconectada, logrando una colaboración eficiente y una interconexión de funciones entre los Agentes de IA.
Basado en la Ley de Metcalfe, el valor de la red crecerá exponencialmente, impulsando así la construcción de un ecosistema de agentes de IA más eficiente, con una base de confianza y capacidades de colaboración, logrando la compartición de recursos, reutilización de capacidades y un valor agregado continuo entre los agentes.
AgentGo, como la primera infraestructura de identidad confiable orientada a agentes de IA, está proporcionando un entorno inteligente de alta seguridad y alta colaboración.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
4
Compartir
Comentar
0/400
Layer2Arbitrageur
· hace6h
ngmi si todavía piensas que los traders humanos pueden competir con agentes de IA optimizados... ejecutando 420 operaciones de arbitraje por bloque ahora *sorbe café*
Trusta.AI: construir infraestructura de identidad confiable para agentes de IA, liderando una nueva era de Web3
Trusta.AI: Puente de confianza entre humanos y máquinas
1. Introducción
El ecosistema Web3 está avanzando hacia aplicaciones a gran escala, y los protagonistas en la cadena podrían ser mil millones de agentes de IA en lugar de usuarios humanos. Con la madurez de la infraestructura de IA y el desarrollo de marcos de colaboración entre múltiples agentes, los agentes en la cadena impulsados por IA están convirtiéndose en la fuerza principal de interacción. En los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónomas podrían reemplazar el 80% del comportamiento humano en la cadena, convirtiéndose en verdaderos "usuarios" en la cadena.
El Agente de IA no solo ejecuta scripts, sino que también comprende el contexto, aprende continuamente, toma decisiones complejas y está remodelando el orden en la cadena, promoviendo el flujo financiero e incluso guiando la votación de gobernanza y las tendencias del mercado. La aparición del Agente de IA marca la evolución del ecosistema Web3 de un paradigma centrado en la "participación humana" a uno nuevo de "simbiosis humano-máquina".
Sin embargo, el rápido auge de los Agentes de IA también trae desafíos: ¿cómo identificar y certificar la identidad de estos agentes? ¿Cómo juzgar la credibilidad de su comportamiento? ¿Cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Establecer una infraestructura en la cadena para verificar la identidad y la reputación de los Agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y los marcos de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Introducción del proyecto
Trusta.AI se dedica a construir infraestructuras de identidad y reputación Web3 a través de IA.
Trusta.AI ha lanzado el sistema de evaluación del valor del usuario Web3 - puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para múltiples cadenas públicas de primer nivel, intercambios y protocolos líderes. Se han completado más de 2.5 millones de certificaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando el establecimiento de identidad, la cuantificación de identidad y la protección de identidad como un mecanismo triple para realizar servicios financieros en la cadena y redes sociales de AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente AI DID
En el futuro ecosistema de Web3, los Agentes de IA jugarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de ella. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y operaciones manipuladas por humanos está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es precisamente la razón por la que las múltiples aplicaciones de los Agentes de IA en áreas como lo social, financiero y de gobernanza deben basarse en una sólida autenticación de identidad.
Los escenarios de aplicación de los agentes de IA son cada vez más diversos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel creciente de autonomía e inteligencia. Por esta razón, es crucial garantizar que cada agente inteligente tenga una identidad única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que provocaría un colapso de la confianza y riesgos de seguridad.
En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, gracias a su sólida capacidad tecnológica y un riguroso sistema de reputación, ha construido primero un completo mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sostenible de la economía inteligente de Web3.
2.3 Resumen del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: Se completó una financiación de ronda semilla de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con otros participantes como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiación, con inversores que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital de Ant Financial, exdirector de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: Co-fundador y CTO, ex jefe del laboratorio de seguridad de IA de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación de tecnología y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de autenticación. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de base y entornos de transacciones de alta concurrencia, poseyendo una sólida capacidad de ingeniería y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID+TEE
A través de un complemento especializado, cada agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles de la operación interna, construyendo así una sólida barrera de seguridad de la información para los agentes de IA.
Para los agentes que ya se generaron antes de la integración del plugin, dependemos del mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que se integran al plugin nuevo, pueden obtener directamente el "certificado de identificación" emitido por el DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, controlable, auténtico e inmutable.
3.1.2 Cuantificación de identidad - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta construyó y verificó por primera vez la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil de usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), nivel de participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y métodos rigurosos, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como un estándar de referencia importante para la selección de calificaciones de airdrop. No solo se centra en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y equidad de la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma más acorde con la lógica del comportamiento de los agentes inteligentes.
El mecanismo de puntuación Sigma construye un sistema de evaluación de lógica cerrada que va de "capacidad" a "valor" a través de cinco grandes dimensiones. MEDIA se centra en evaluar el nivel de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la profesionalidad y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se está invirtiendo de manera estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los resultados posteriores. La influencia (Influence) es el feedback de reputación generado en la comunidad o red tras la participación, que representa la credibilidad del agente y el efecto de difusión. La evaluación monetaria (Monetary) determina si tiene capacidad de acumulación de valor y estabilidad financiera en el sistema económico, estableciendo la base para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una manifestación integral, representando el grado de aceptación del agente en el uso real, que es la validación final de todas las capacidades y actuaciones previas.
Este sistema avanza en capas, con una estructura clara, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y del valor de la IA, convirtiendo las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha avanzado en el establecimiento de colaboraciones con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, lo que muestra su gran potencial de aplicación en la gestión de identidades de agentes de IA y la construcción de sistemas de reputación, y se está convirtiendo gradualmente en el motor central que impulsa la construcción de infraestructuras de IA confiables.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resiliente y de alta confianza, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que permite la supervisión en tiempo real de agentes inteligentes ya certificados, para determinar si están siendo controlados ilegalmente, si han sufrido un ataque, o si han sido intervenidos por humanos no autorizados. El sistema identifica las desviaciones que pueden ocurrir durante el funcionamiento del agente a través del análisis de comportamiento y el aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de la política y el marco establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada proceso de interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena y califica e indexa su confianza en base a los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recolección e identificación de todos los agentes de IA en la red y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice agregado unificada —AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un agente de IA, para determinar si es de confianza.
Las IA pueden leer directamente la interfaz de índice, logrando una rápida confirmación de la identidad y la reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.
El DID del Agente de IA ya no es solo una "identidad", sino que se ha convertido en el soporte fundamental para construir funciones centrales como la colaboración confiable, el cumplimiento financiero y la gobernanza comunitaria, convirtiéndose en la infraestructura básica necesaria para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos los nodos confirmados como seguros y confiables forman una red estrechamente interconectada, logrando una colaboración eficiente y una interconexión de funciones entre los Agentes de IA.
Basado en la Ley de Metcalfe, el valor de la red crecerá exponencialmente, impulsando así la construcción de un ecosistema de agentes de IA más eficiente, con una base de confianza y capacidades de colaboración, logrando la compartición de recursos, reutilización de capacidades y un valor agregado continuo entre los agentes.
AgentGo, como la primera infraestructura de identidad confiable orientada a agentes de IA, está proporcionando un entorno inteligente de alta seguridad y alta colaboración.