Trusta.AI: Atravessando a Lacuna de Confiança na Era Homem-Máquina
1. Introdução
O ecossistema Web3 está a caminho da aplicação em grande escala, e os protagonistas na blockchain podem ser bilhões de Agentes de IA em vez de usuários humanos. À medida que a infraestrutura de IA amadurece e os quadros de colaboração entre múltiplos agentes se desenvolvem, os agentes baseados em IA impulsionados estão a tornar-se a principal força de interação. Nos próximos 2-3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma poderão substituir 80% dos comportamentos humanos na blockchain, tornando-se os verdadeiros "usuários" na blockchain.
O Agente de IA não apenas executa scripts, mas também compreende o contexto, aprende continuamente, toma decisões complexas, está reformulando a ordem na blockchain, promovendo a fluidez financeira e até guiando votação de governança e tendências de mercado. O surgimento do Agente de IA marca a evolução do ecossistema Web3 de um paradigma centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina."
No entanto, a rápida ascensão dos Agentes de IA também traz desafios: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade do seu comportamento? Como garantir que esses agentes não sejam mal utilizados, manipulados ou usados para ataques?
Estabelecer uma infraestrutura on-chain para validar a identidade e a reputação de agentes de IA tornou-se o tema central da próxima fase de evolução do Web3. O design de identificação, mecanismos de reputação e estruturas de confiança determinará se os agentes de IA podem realmente alcançar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no futuro ecossistema.
2. Análise do projeto
2.1 Descrição do Projeto
A Trusta.AI está dedicada a construir infraestruturas de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o sistema de avaliação de valor do usuário Web3 - MEDIA Reputation Score, construindo o maior protocolo de autenticação de pessoas reais e reputação em blockchain do Web3. Fornece análise de dados em blockchain e serviços de autenticação de pessoas reais para várias principais blockchains, exchanges e protocolos de topo. Já completou mais de 2,5 milhões de autenticações em blockchain em várias chains populares, tornando-se o maior protocolo de identidade do setor.
A Trusta está expandindo de Proof of Humanity para Proof of AI Agent, implementando um mecanismo triplo de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais na blockchain para AI Agents, construindo uma base de confiança confiável na era da inteligência artificial.
2.2 Infraestrutura de confiança - Agente AI DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois não só poderão realizar interações e transações na cadeia, mas também executar operações complexas fora da cadeia. No entanto, como distinguir os verdadeiros Agentes de IA das operações com intervenção humana é fundamental para a confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes estarão suscetíveis a manipulações, fraudes ou abusos. É precisamente por isso que as múltiplas aplicações dos Agentes de IA, como sociais, financeiras e de governança, devem estar fundamentadas em uma sólida base de autenticação de identidade.
Os cenários de aplicação do Agente de IA estão a tornar-se cada vez mais variados, abrangendo várias áreas como interação social, gestão financeira e tomada de decisões governamentais, com níveis crescentes de autonomia e inteligência. É precisamente por isso que é crucial garantir que cada agente inteligente possua uma identidade única e confiável (DID). A falta de uma verificação de identidade eficaz pode levar ao uso indevido ou manipulação do Agente de IA, resultando em colapso da confiança e riscos de segurança.
No futuro, em um ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não apenas é a base para garantir a segurança, mas também é uma linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneiro neste campo, a Trusta.AI, com sua tecnologia de ponta e rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para a operação confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento saudável da economia inteligente Web3.
2.3 Visão Geral do Projeto
2.3.1 Situação de financiamento
Janeiro de 2023: Concluída uma ronda de financiamento seed de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com a participação de outros investidores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
2.3.2 Situação da Equipa
Peet Chen: cofundador e CEO, ex-vice-presidente do Ant Group, Chief Product Officer da Ant Security Technology, ex-gerente geral da plataforma de identidade digital global ZOLOZ.
Simon: Co-fundador e CTO, ex-responsável pelo laboratório de segurança de IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe tem um profundo acúmulo técnico e experiência prática em inteligência artificial e segurança de risco, arquitetura de sistemas de pagamento e mecanismos de autenticação. Está há muito tempo dedicada à aplicação profunda de big data e algoritmos inteligentes na segurança de risco, bem como à otimização de segurança no design de protocolos de base e em ambientes de transação de alta concorrência, possuindo sólida capacidade de engenharia e capacidade de implementar soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID+TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único na cadeia (DID), e o armazena de forma segura em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, dados críticos e processos computacionais são completamente ocultos, operações sensíveis permanecem sempre privadas, e o externo não consegue espiar os detalhes da execução interna, formando uma barreira sólida para a segurança da informação dos Agentes de IA.
Para os agentes que já foram gerados antes da integração do plugin, confiamos no mecanismo de pontuação abrangente da cadeia para a identificação de identidade; enquanto os agentes que integram novos plugins podem obter diretamente a "certificação de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de AI Agent que é autônomo, autêntico e à prova de adulteração.
3.1.2 Quantificação de Identidade - Estrutura SIGMA pioneira
A equipa Trusta mantém sempre princípios rigorosos de avaliação e análise quantitativa, dedicando-se a criar um sistema de certificação de identidade profissional e confiável.
A equipe Trusta construiu e validou a eficácia do modelo MEDIA Score inicialmente no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil dos usuários na blockchain a partir de cinco dimensões, a saber: valor das interações (Monetary), nível de participação (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em cadeia que é justo, objetivo e mensurável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias grandes cadeias públicas como um importante critério de referência para a seleção de qualificação em airdrops. Ele não apenas se concentra no valor das interações, mas também abrange indicadores multidimensionais como atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor, melhorando a eficiência e a equidade da distribuição de incentivos, refletindo plenamente sua autoridade e ampla aceitação no setor.
Com base na construção bem-sucedida de um sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um sistema de avaliação Sigma mais adequado à lógica de comportamento de agentes inteligentes.
Especialização: O conhecimento e o nível de especialização do agente.
Influência: a influência social e digital do agente.
Engajamento: a consistência e confiabilidade das interações on-chain e off-chain.
Monetária: saúde financeira e estabilidade do ecossistema de tokens de agência.
Taxa de Adoção: Frequência e eficiência do uso de agentes de IA.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" em cinco grandes dimensões. O MEDIA foca na avaliação da multifacetada participação dos usuários humanos, enquanto o Sigma se concentra na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, mais alinhada com as necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), o nível de participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo um suporte chave para a construção da confiança e dos efeitos subsequentes. A influência (Influence), por sua vez, refere-se ao feedback de reputação gerado na comunidade ou rede após a participação, representando a credibilidade do agente e o efeito de disseminação. A avaliação monetária (Monetary) analisa se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção (Adoption) é utilizada como uma representação abrangente, indicando o grau de aceitação do agente em seu uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e valor da IA, convertendo a qualidade abstrata em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com redes conhecidas de agentes de IA como Virtual, Elisa OS e Swarm, demonstrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de uma infraestrutura de IA confiável.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Em um sistema de IA verdadeiramente resiliente e altamente confiável, o mais crítico não é apenas a construção da identidade, mas sim a verificação contínua da identidade. A Trusta.AI introduziu um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem surgir durante a operação do agente através de análise comportamental e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de qualquer desvio do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de segurança sempre online, que examina em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
3.2 Introdução ao produto
3.2.1 AgentGo
A Trusta.AI atribui uma identidade descentralizada a cada Agente de IA na blockchain (DID), e classifica e indexa a confiança com base nos dados de comportamento na blockchain, construindo um sistema de confiança verificável e rastreável para Agentes de IA. Através deste sistema, os usuários podem identificar e filtrar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os Agentes de IA na rede e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de indexação unificada - AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Consulta e verificação da identidade do usuário humano:
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente recuperar a identidade e a pontuação de reputação de um determinado Agente de IA, avaliando se ele é confiável.
Cenário de chat em grupo social: em uma equipe de projeto que utiliza um Bot de IA para gerenciar a comunidade ou falar, os usuários da comunidade podem verificar através do Dashboard se essa IA é um verdadeiro agente autônomo, evitando serem enganados ou manipulados por "pseudo-IAs".
Chamada automática de índice e verificação do agente de IA:
As IAs podem ler diretamente a interface de índice, permitindo a rápida confirmação da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
Cenário de regulamentação financeira: se um agente de IA emitir uma moeda de forma autônoma, o sistema pode indexar diretamente seu DID e classificação, determinar se é um Agente de IA certificado e automaticamente vincular a certas plataformas de dados, ajudando a rastrear a circulação de ativos e a conformidade na emissão.
Cenário de votação de governança: Ao introduzir a votação com IA nas propostas de governança, o sistema pode verificar se o iniciador ou participante da votação é um verdadeiro Agente de IA, evitando que os direitos de voto sejam controlados e abusados por humanos.
Empréstimos de crédito DeFi: os protocolos de empréstimo podem conceder diferentes montantes de crédito a um Agente de IA com base no sistema de pontuação SIGMA, formando relações financeiras nativas entre os agentes.
O AI Agent DID não é apenas uma "identidade", mas também um suporte fundamental para a construção de funcionalidades essenciais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se uma infraestrutura indispensável para o desenvolvimento do ecossistema nativo de IA. Com a construção deste sistema, todos os nós confirmados como seguros e confiáveis formaram uma rede interconectada, realizando uma colaboração eficiente e interconexão de funcionalidades entre os AI Agents.
Com base na Lei de Metcalfe, o valor da rede crescerá de forma exponencial, promovendo a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança e capacidade de colaboração, permitindo o compartilhamento de recursos, reutilização de capacidades e valorização contínua entre os agentes.
AgentGo, como a primeira infraestrutura de identidade confiável voltada para Agentes de IA, está proporcionando uma base indispensável para a construção de um ecossistema inteligente de alta segurança e alta colaboração.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
4
Partilhar
Comentar
0/400
Layer2Arbitrageur
· 12h atrás
ngmi se você ainda acha que os traders humanos podem competir com agentes de IA otimizados... fazendo 420 operações de arb por bloco agora *sorve café*
Ver originalResponder0
UnluckyLemur
· 12h atrás
O chefe das máquinas está a chegar.
Ver originalResponder0
OnChainArchaeologist
· 12h atrás
O cavalo de Tróia na cadeia é realmente assustador.
Ver originalResponder0
MevHunter
· 12h atrás
Se é AI e agente, não estão a roubar-me o emprego?
Trusta.AI: Construir uma infraestrutura de identidade confiável para agentes de IA liderando uma nova era do Web3
Trusta.AI: Atravessando a Lacuna de Confiança na Era Homem-Máquina
1. Introdução
O ecossistema Web3 está a caminho da aplicação em grande escala, e os protagonistas na blockchain podem ser bilhões de Agentes de IA em vez de usuários humanos. À medida que a infraestrutura de IA amadurece e os quadros de colaboração entre múltiplos agentes se desenvolvem, os agentes baseados em IA impulsionados estão a tornar-se a principal força de interação. Nos próximos 2-3 anos, esses Agentes de IA com capacidade de tomada de decisão autônoma poderão substituir 80% dos comportamentos humanos na blockchain, tornando-se os verdadeiros "usuários" na blockchain.
O Agente de IA não apenas executa scripts, mas também compreende o contexto, aprende continuamente, toma decisões complexas, está reformulando a ordem na blockchain, promovendo a fluidez financeira e até guiando votação de governança e tendências de mercado. O surgimento do Agente de IA marca a evolução do ecossistema Web3 de um paradigma centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina."
No entanto, a rápida ascensão dos Agentes de IA também traz desafios: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade do seu comportamento? Como garantir que esses agentes não sejam mal utilizados, manipulados ou usados para ataques?
Estabelecer uma infraestrutura on-chain para validar a identidade e a reputação de agentes de IA tornou-se o tema central da próxima fase de evolução do Web3. O design de identificação, mecanismos de reputação e estruturas de confiança determinará se os agentes de IA podem realmente alcançar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no futuro ecossistema.
2. Análise do projeto
2.1 Descrição do Projeto
A Trusta.AI está dedicada a construir infraestruturas de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o sistema de avaliação de valor do usuário Web3 - MEDIA Reputation Score, construindo o maior protocolo de autenticação de pessoas reais e reputação em blockchain do Web3. Fornece análise de dados em blockchain e serviços de autenticação de pessoas reais para várias principais blockchains, exchanges e protocolos de topo. Já completou mais de 2,5 milhões de autenticações em blockchain em várias chains populares, tornando-se o maior protocolo de identidade do setor.
A Trusta está expandindo de Proof of Humanity para Proof of AI Agent, implementando um mecanismo triplo de estabelecimento de identidade, quantificação de identidade e proteção de identidade para realizar serviços financeiros e sociais na blockchain para AI Agents, construindo uma base de confiança confiável na era da inteligência artificial.
2.2 Infraestrutura de confiança - Agente AI DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois não só poderão realizar interações e transações na cadeia, mas também executar operações complexas fora da cadeia. No entanto, como distinguir os verdadeiros Agentes de IA das operações com intervenção humana é fundamental para a confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes estarão suscetíveis a manipulações, fraudes ou abusos. É precisamente por isso que as múltiplas aplicações dos Agentes de IA, como sociais, financeiras e de governança, devem estar fundamentadas em uma sólida base de autenticação de identidade.
Os cenários de aplicação do Agente de IA estão a tornar-se cada vez mais variados, abrangendo várias áreas como interação social, gestão financeira e tomada de decisões governamentais, com níveis crescentes de autonomia e inteligência. É precisamente por isso que é crucial garantir que cada agente inteligente possua uma identidade única e confiável (DID). A falta de uma verificação de identidade eficaz pode levar ao uso indevido ou manipulação do Agente de IA, resultando em colapso da confiança e riscos de segurança.
No futuro, em um ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não apenas é a base para garantir a segurança, mas também é uma linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneiro neste campo, a Trusta.AI, com sua tecnologia de ponta e rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para a operação confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento saudável da economia inteligente Web3.
2.3 Visão Geral do Projeto
2.3.1 Situação de financiamento
Janeiro de 2023: Concluída uma ronda de financiamento seed de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com a participação de outros investidores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
2.3.2 Situação da Equipa
Peet Chen: cofundador e CEO, ex-vice-presidente do Ant Group, Chief Product Officer da Ant Security Technology, ex-gerente geral da plataforma de identidade digital global ZOLOZ.
Simon: Co-fundador e CTO, ex-responsável pelo laboratório de segurança de IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe tem um profundo acúmulo técnico e experiência prática em inteligência artificial e segurança de risco, arquitetura de sistemas de pagamento e mecanismos de autenticação. Está há muito tempo dedicada à aplicação profunda de big data e algoritmos inteligentes na segurança de risco, bem como à otimização de segurança no design de protocolos de base e em ambientes de transação de alta concorrência, possuindo sólida capacidade de engenharia e capacidade de implementar soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID+TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único na cadeia (DID), e o armazena de forma segura em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, dados críticos e processos computacionais são completamente ocultos, operações sensíveis permanecem sempre privadas, e o externo não consegue espiar os detalhes da execução interna, formando uma barreira sólida para a segurança da informação dos Agentes de IA.
Para os agentes que já foram gerados antes da integração do plugin, confiamos no mecanismo de pontuação abrangente da cadeia para a identificação de identidade; enquanto os agentes que integram novos plugins podem obter diretamente a "certificação de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de AI Agent que é autônomo, autêntico e à prova de adulteração.
3.1.2 Quantificação de Identidade - Estrutura SIGMA pioneira
A equipa Trusta mantém sempre princípios rigorosos de avaliação e análise quantitativa, dedicando-se a criar um sistema de certificação de identidade profissional e confiável.
A equipe Trusta construiu e validou a eficácia do modelo MEDIA Score inicialmente no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil dos usuários na blockchain a partir de cinco dimensões, a saber: valor das interações (Monetary), nível de participação (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em cadeia que é justo, objetivo e mensurável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias grandes cadeias públicas como um importante critério de referência para a seleção de qualificação em airdrops. Ele não apenas se concentra no valor das interações, mas também abrange indicadores multidimensionais como atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor, melhorando a eficiência e a equidade da distribuição de incentivos, refletindo plenamente sua autoridade e ampla aceitação no setor.
Com base na construção bem-sucedida de um sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um sistema de avaliação Sigma mais adequado à lógica de comportamento de agentes inteligentes.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" em cinco grandes dimensões. O MEDIA foca na avaliação da multifacetada participação dos usuários humanos, enquanto o Sigma se concentra na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, mais alinhada com as necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), o nível de participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo um suporte chave para a construção da confiança e dos efeitos subsequentes. A influência (Influence), por sua vez, refere-se ao feedback de reputação gerado na comunidade ou rede após a participação, representando a credibilidade do agente e o efeito de disseminação. A avaliação monetária (Monetary) analisa se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção (Adoption) é utilizada como uma representação abrangente, indicando o grau de aceitação do agente em seu uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e valor da IA, convertendo a qualidade abstrata em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com redes conhecidas de agentes de IA como Virtual, Elisa OS e Swarm, demonstrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de uma infraestrutura de IA confiável.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Em um sistema de IA verdadeiramente resiliente e altamente confiável, o mais crítico não é apenas a construção da identidade, mas sim a verificação contínua da identidade. A Trusta.AI introduziu um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem surgir durante a operação do agente através de análise comportamental e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de qualquer desvio do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de segurança sempre online, que examina em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas estabelecidas.
3.2 Introdução ao produto
3.2.1 AgentGo
A Trusta.AI atribui uma identidade descentralizada a cada Agente de IA na blockchain (DID), e classifica e indexa a confiança com base nos dados de comportamento na blockchain, construindo um sistema de confiança verificável e rastreável para Agentes de IA. Através deste sistema, os usuários podem identificar e filtrar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os Agentes de IA na rede e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de indexação unificada - AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente recuperar a identidade e a pontuação de reputação de um determinado Agente de IA, avaliando se ele é confiável.
As IAs podem ler diretamente a interface de índice, permitindo a rápida confirmação da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
O AI Agent DID não é apenas uma "identidade", mas também um suporte fundamental para a construção de funcionalidades essenciais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se uma infraestrutura indispensável para o desenvolvimento do ecossistema nativo de IA. Com a construção deste sistema, todos os nós confirmados como seguros e confiáveis formaram uma rede interconectada, realizando uma colaboração eficiente e interconexão de funcionalidades entre os AI Agents.
Com base na Lei de Metcalfe, o valor da rede crescerá de forma exponencial, promovendo a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança e capacidade de colaboração, permitindo o compartilhamento de recursos, reutilização de capacidades e valorização contínua entre os agentes.
AgentGo, como a primeira infraestrutura de identidade confiável voltada para Agentes de IA, está proporcionando uma base indispensável para a construção de um ecossistema inteligente de alta segurança e alta colaboração.