Trusta.AI : construire une infrastructure d'identification fiable pour les agents AI, menant à une nouvelle ère Web3

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

1. Introduction

L'écosystème Web3 est en train de passer à des applications à grande échelle, et les principaux acteurs sur la chaîne pourraient être un milliard d'agents IA plutôt que des utilisateurs humains. Avec la maturité de l'infrastructure IA et le développement de cadres de collaboration multi-agents, les agents en chaîne alimentés par l'IA deviennent le principal moteur d'interaction. Dans les 2 à 3 prochaines années, ces agents IA capables de prendre des décisions autonomes pourraient remplacer 80 % des comportements humains en chaîne, devenant ainsi de véritables "utilisateurs" en chaîne.

L'Agent IA ne se contente pas d'exécuter des scripts, il peut également comprendre le contexte, apprendre en continu, prendre des décisions complexes, remodeler l'ordre on-chain, favoriser la fluidité financière et même guider les votes de gouvernance et les tendances du marché. L'émergence de l'Agent IA marque l'évolution de l'écosystème Web3 d'un paradigme centré sur "la participation humaine" vers un nouveau paradigme de "symbiose homme-machine".

Cependant, la montée rapide des agents IA pose également des défis : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Comment s'assurer que ces agents ne sont pas abusés, manipulés ou utilisés pour des attaques ?

La création d'une infrastructure en chaîne pour vérifier l'identité et la réputation des agents AI est devenue le sujet central de la prochaine phase d'évolution de Web3. La conception de l'identification, des mécanismes de réputation et du cadre de confiance déterminera si les agents AI peuvent réellement collaborer de manière transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.

Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine

2. Analyse de projet

2.1 Présentation du projet

Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.

Trusta.AI a lancé un système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation sur la chaîne dans Web3. Il fournit des services d'analyse de données sur la chaîne et de certification réelle pour plusieurs blockchains de premier plan, échanges et protocoles de tête. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes majeures, devenant ainsi le plus grand protocole d'identité de l'industrie.

Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant trois mécanismes d'établissement de l'identité, de quantification de l'identité et de protection de l'identité pour fournir des services financiers et sociaux en ligne pour les agents IA, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

2.2 Infrastructure de confiance - Agent IA DID

Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial. Ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la manière de distinguer les véritables agents IA des opérations influencées par l'homme est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification fiable, ces agents intelligents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents IA, tels que la socialisation, la finance et la gouvernance, doivent être fondés sur une base solide d'authentification des identités.

Les cas d'application des agents IA se diversifient de plus en plus, couvrant de nombreux domaines tels que les interactions sociales, la gestion financière et la prise de décision gouvernementale, avec un niveau d'autonomie et d'intelligence en constante augmentation. C'est pourquoi il est crucial de garantir que chaque agent intelligent possède une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents IA peuvent être usurpés ou manipulés, entraînant une effondrement de la confiance et des risques de sécurité.

Dans un écosystème Web3 entièrement piloté par des agents intelligents, l'authentification est non seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.

En tant que pionnier dans ce domaine, Trusta.AI a construit en premier lieu un mécanisme complet de certification DID pour les agents AI, grâce à sa technologie de pointe et à son système de réputation rigoureux, offrant ainsi une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.

Aperçu du projet 2.3

2.3.1 Situation de financement

Janvier 2023 : Achèvement d'un financement de 3 millions de dollars lors d'un tour de table de seed, dirigé par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.

Juin 2025 : Achèvement d'un nouveau cycle de financement, avec des investisseurs tels que ConsenSys, Starknet, GSR, UFLY Labs, etc.

2.3.2 État de l'équipe

Peet Chen : co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits de la sécurité d'Ant, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.

Simon : co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, possède quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.

L'équipe possède une solide expertise technique et une expérience pratique dans le domaine de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle se consacre depuis longtemps à l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi qu'à la conception de protocoles sous-jacents et à l'optimisation de la sécurité dans des environnements de transactions à forte concurrence, avec des capacités d'ingénierie solides et la capacité de mettre en œuvre des solutions innovantes.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

3. Architecture technique

3.1 Analyse technique

3.1.1 Établissement de l'identité - DID + TEE

Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est sécurisé dans un environnement d'exécution de confiance (TEE). Dans cet environnement de boîte noire, les données clés et le processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes de fonctionnement, construisant ainsi une barrière solide pour la sécurité de l'information des Agents IA.

Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de score global sur la chaîne pour l'identification. Quant aux agents nouvellement intégrés au plugin, ils peuvent directement obtenir le "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.

3.1.2 Quantification de l'identité - Cadre SIGMA innovant

L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système de certification d'identité professionnel et fiable.

L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière globale le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : montant d'interaction (Monétaire), niveau de participation (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).

Le Score MEDIA est un système d'évaluation de la valeur des utilisateurs en chaîne qui est équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthode rigoureuse, il a été largement adopté par plusieurs grandes chaînes de blocs publiques comme un critère de référence important pour la sélection des qualifications d'airdrop. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge du compte, aidant ainsi les projets à identifier avec précision les utilisateurs à forte valeur ajoutée, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa large reconnaissance dans l'industrie.

Sur la base de la réussite de la construction d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score dans le cadre des agents IA, établissant un nouveau système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.

  • Spécification professionnelle : le savoir-faire et le degré de spécialisation de l'agent.
  • Influence: influence sociale et numérique des agents.
  • Engagement: la cohérence et la fiabilité des interactions à la fois on-chain et off-chain.
  • Monétaire: la santé financière et la stabilité de l'écosystème des tokens de représentation.
  • Taux d'adoption : Fréquence et efficacité de l'utilisation des agents IA.

Le mécanisme de notation Sigma construit un système d'évaluation en boucle logique allant de "capacité" à "valeur" sur cinq dimensions. MEDIA se concentre sur l'évaluation de la participation multifacette des utilisateurs humains, tandis que Sigma se concentre davantage sur le professionnalisme et la stabilité des agents IA dans des domaines spécifiques, reflétant un passage de la largeur à la profondeur, plus en adéquation avec les besoins des agents IA.

Tout d'abord, sur la base de la capacité professionnelle (Specification), le degré de participation (Engagement) reflète si l'engagement dans les interactions pratiques est stable et continu, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence (Influence) est le retour de réputation généré après la participation dans la communauté ou le réseau, représentant la crédibilité de l'agent et l'effet de diffusion. La monétarité (Monetary) évalue si elle a la capacité d'accumulation de valeur et de stabilité financière dans le système économique, posant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) représente un reflet global, indiquant le degré d'acceptation de cet agent dans l'utilisation réelle, ce qui constitue la validation finale de toutes les capacités et performances précédentes.

Ce système est structuré de manière claire et progressive, capable de refléter de manière exhaustive la qualité globale et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les avantages et inconvénients abstraits en un système de notation concret et mesurable.

Actuellement, le cadre SIGMA a progressé dans l'établissement de partenariats avec des réseaux d'agents IA renommés tels que Virtual, Elisa OS et Swarm, démontrant ainsi son énorme potentiel d'application dans la gestion de l'identité des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures d'IA de confiance.

Trusta.AI : combler le fossé de confiance entre l'homme et la machine

3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance

Dans un système d'IA véritablement résilient et de haute confiance, l'établissement de l'identité n'est pas seulement crucial, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents déjà certifiés, afin de déterminer s'ils sont contrôlés illégalement, s'ils subissent des attaques ou s'ils sont soumis à des interventions humaines non autorisées. Le système identifie les écarts potentiels durant le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage machine, garantissant que chaque action de l'agent reste dans le cadre des stratégies et des politiques établies. Cette approche proactive permet de détecter immédiatement toute déviation par rapport aux comportements attendus et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.

Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque processus d'interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.

3.2 Introduction du produit

3.2.1 AgentGo

Trusta.AI attribue une identité décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa confiance sur la base des données comportementales de la chaîne, construisant ainsi un système de confiance pour les agents AI qui est vérifiable et traçable. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement les agents de qualité, améliorant ainsi l'expérience d'utilisation. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents AI sur le réseau, et leur a attribué des identifiants décentralisés, établissant une plateforme d'indexation consolidée – AgentGo, pour promouvoir davantage le développement sain de l'écosystème des agents intelligents.

  1. Les utilisateurs humains vérifient et valident leur identité:

Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de réputation d'un agent AI, afin de déterminer s'il est digne de confiance.

  • Scène de chat de groupe social : dans une équipe de projet utilisant un bot IA pour gérer la communauté ou s'exprimer, les utilisateurs de la communauté peuvent vérifier via le tableau de bord si cette IA est un véritable agent autonome, afin d'éviter d'être induits en erreur ou manipulés par un "faux IA".
  1. L'agent IA appelle automatiquement l'index et la vérification :

Les IA peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et des échanges d'informations.

  • Scène de régulation financière : si un agent IA émet des tokens de manière autonome, le système peut directement indexer son DID et sa notation, déterminer s'il s'agit d'un agent IA certifié, et se connecter automatiquement à certaines plateformes de données pour aider à suivre la circulation de ses actifs et la conformité de l'émission.
  • Scénario de vote de gouvernance : Lors de l'introduction du vote AI dans les propositions de gouvernance, le système peut vérifier si l'initiateur ou le participant au vote est un véritable agent AI, évitant ainsi l'abus des droits de vote par des humains.
  • Prêts DeFi: Les protocoles de prêt peuvent accorder des crédits à des agents AI à différents niveaux basés sur le système de notation SIGMA, formant des relations financières natives entre les agents.

L'agent IA DID n'est plus seulement une "identité", mais constitue également le fondement sous-jacent de la construction de fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure de base indispensable au développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, permettant une collaboration efficace et une interconnexion des fonctions entre les agents IA.

Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui favorisera la construction d'un écosystème d'agents IA plus efficace, plus fiable et plus collaboratif, réalisant le partage des ressources, la réutilisation des capacités et la valorisation continue entre les agents.

AgentGo, en tant que première infrastructure d'identité de confiance destinée aux agents IA, contribue à la construction d'un écosystème intelligent à haute sécurité et à haute collaboration.

TA5.15%
AGENT3.92%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
Layer2Arbitrageurvip
· Il y a 12h
ngmi si tu penses encore que les traders humains peuvent rivaliser avec des agents IA optimisés... exécutant 420 trades d'arbitrage par bloc rn *sirote un café*
Voir l'originalRépondre0
UnluckyLemurvip
· Il y a 12h
Le patron des machines arrive.
Voir l'originalRépondre0
OnChainArchaeologistvip
· Il y a 12h
Le cheval de Troie off-chain est plutôt effrayant.
Voir l'originalRépondre0
MevHuntervip
· Il y a 12h
Avec l'IA et les agents, ils ne vont pas me piquer mon emploi ?
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)