Trusta.AI lance le cadre SIGMA pour construire une infrastructure d'identification fiable pour les agents IA.

Trusta.AI : Comblez le fossé de confiance dans l'ère de l'homme et de la machine

Introduction

Avec la maturation rapide des infrastructures d'IA et le développement de cadres de collaboration multi-agents, les agents on-chain alimentés par l'IA deviennent rapidement les principaux acteurs des interactions Web3. On s'attend à ce que dans les 2 à 3 prochaines années, ces agents IA capables de prendre des décisions autonomes remplacent 80 % des comportements humains on-chain, devenant de véritables "utilisateurs" on-chain.

L'émergence des agents IA marque une évolution de l'écosystème Web3, passant d'un modèle centré sur "la participation humaine" à un nouveau paradigme de "symbiose homme-machine". Cependant, la montée rapide des agents IA a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Comment s'assurer que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?

Par conséquent, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central dans la prochaine étape de l'évolution du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration sans faille avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.

Trusta.AI : combler le fossé de confiance entre l'homme et la machine

Analyse du projet

Présentation du projet

Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.

Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification en temps réel et de réputation sur la chaîne de Web3. Il fournit des services d'analyse de données sur la chaîne et de certification en temps réel pour des chaînes publiques de premier plan et des protocoles tels que Linea, Starknet, Celestia, Arbitrum, Manta, etc. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur des chaînes mainstream telles que Linea, BSC et TON, devenant le plus grand protocole d'identité de l'industrie.

Trusta s'étend de Proof of Humanity à Proof of AI Agent, réalisant trois mécanismes de création d'identité, de quantification d'identité et de protection d'identité pour offrir des services financiers et sociaux sur la chaîne pour les agents d'IA, établissant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.

Infrastructure de confiance - Agent IA DID

Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial, car ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la façon de distinguer les véritables agents IA des opérations manipulées par l'homme touche au cœur de la confiance décentralisée. Sans un mécanisme d'authentification des identités fiable, ces agents intelligents sont facilement sujets à la manipulation, à la fraude ou à l'abus. C'est pourquoi les multiples attributs d'application des agents IA, tels que sociaux, financiers et de gouvernance, doivent être basés sur une solide fondation d'authentification des identités.

En tant que pionnier dans ce domaine, Trusta.AI a construit en premier lieu un mécanisme d'authentification DID pour les agents AI complet grâce à sa puissance technologique de pointe et à un système de réputation rigoureux, offrant ainsi une garantie solide pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.

Situation de financement

Janvier 2023 : 300 millions de dollars de financement en seed round complétés, dirigés par SevenX Ventures et Vision Plus Capital, avec d'autres investisseurs tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.

Juin 2025 : Achèvement d'une nouvelle levée de fonds, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.

État de l'équipe

Peet Chen : cofondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits de la sécurité d'Ant, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.

Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, possède quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la gestion de la sécurité et des risques.

L'équipe possède une solide expérience technique et pratique dans le domaine de l'intelligence artificielle et de la gestion des risques de sécurité, l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle est engagée depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à haute concurrence, avec des capacités d'ingénierie solides et la capacité de mettre en œuvre des solutions innovantes.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

Architecture technique

Établissement d'identité - DID + TEE

Grâce à un plugin dédié, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), et le stocke en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données critiques et le processus de calcul sont entièrement cachés, les opérations sensibles restent toujours privées, et il est impossible pour l'extérieur d'espionner les détails de fonctionnement internes, construisant ainsi une barrière solide pour la sécurité des informations des agents AI.

Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur un mécanisme de notation complet sur la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et immuable.

Quantification de l'identité - Cadre SIGMA innovant

L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système d'authentification d'identité professionnel et fiable.

L'équipe Trusta a d'abord construit et vérifié l'efficacité du modèle MEDIA Score dans le cadre du scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions : montant d'interaction (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).

Le Score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne qui est équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par de nombreuses blockchains de premier plan telles que Celestia, Starknet, Arbitrum, Manta et Linea, en tant que référence importante pour le filtrage des éligibilités pour les airdrops. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant les projets à identifier avec précision les utilisateurs de grande valeur, améliorant l'efficacité et l'équité de la distribution des incitations, et reflétant pleinement son autorité et sa reconnaissance dans l'industrie.

Sur la base de la réussite de la construction d'un système d'évaluation des utilisateurs humains, Trusta a migré et amélioré l'expérience du Score MEDIA vers le scénario des agents IA, établissant un système d'évaluation Sigma qui correspond mieux à la logique comportementale des agents intelligents.

  • Spécialisation : Expertise et degré de spécialisation des agents.
  • Influence: Influence sociale et numérique des agents.
  • Engagement : la cohérence et la fiabilité de ses interactions en ligne et hors ligne.
  • Monétaire : la santé financière et la stabilité de l'écosystème des jetons d'agent.
  • Taux d'adoption : Fréquence et efficacité de l'utilisation des agents AI.

Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de la "capacité" à "la valeur" à partir de cinq dimensions. MEDIA met l'accent sur l'évaluation du niveau d'engagement multidimensionnel des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un changement de la largeur à la profondeur, plus en adéquation avec les besoins des agents AI.

Tout d'abord, sur la base de la compétence professionnelle ( Specification ), le degré d'engagement ( Engagement ) reflète s'il y a une implication stable et continue dans les interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence ( Influence ) est le retour de réputation généré dans la communauté ou le réseau après la participation, représentant la crédibilité de l'agent et l'effet de diffusion. La capacité monétaire ( Monetary ) évalue s'il a la capacité d'accumuler de la valeur et une stabilité financière dans le système économique, posant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption ( Adoption ) est utilisé comme une représentation globale, indiquant le degré d'acceptation de cet agent dans l'utilisation réelle, ce qui constitue la validation finale de toutes les compétences et performances préalables.

Ce système est progressif et structuré de manière claire, capable de refléter de manière exhaustive la qualité intégrée et la valeur écologique des agents AI, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les qualités abstraites en un système de notation concret et mesurable.

Actuellement, le cadre SIGMA a avancé dans l'établissement de partenariats avec des réseaux d'agents AI connus tels que Virtual, Elisa OS et Swarm, montrant son énorme potentiel d'application dans la gestion de l'identité des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion de l'infrastructure AI fiable.

Trusta.AI : combler le fossé de confiance entre l'homme et la machine

Protection de l'identité - Mécanisme d'évaluation de la confiance

Dans un véritable système d'IA à haute ténacité et haute confiance, la clé n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de confiance continue, capable de surveiller en temps réel les agents intelligents certifiés pour déterminer s'ils sont contrôlés illégalement, s'ils subissent une attaque ou s'ils font l'objet d'une intervention humaine non autorisée. Le système identifie les écarts potentiels dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des politiques et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.

Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction, garantissant que toutes les opérations respectent les normes du système et les attentes établies.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

Introduction du produit

AgentGo

Trusta.AI attribue une identité décentralisée (DID) à chaque agent AI sur la chaîne, et évalue et indexe sa fiabilité en fonction des données de comportement sur la chaîne, construisant un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et filtrer efficacement les agents intelligents de haute qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents AI sur le réseau, et leur a attribué des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée, AgentGo, pour promouvoir davantage le développement sain de l'écosystème des agents intelligents.

  1. Consultation et vérification de l'identité des utilisateurs humains :

Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et le score de réputation d'un agent AI, afin de déterminer s'il est fiable.

  • Scénario de chat de groupe social : Dans une équipe de projet utilisant un bot IA pour gérer la communauté ou s'exprimer, les utilisateurs de la communauté peuvent vérifier via le tableau de bord si cette IA est un véritable agent autonome, évitant ainsi d'être induits en erreur ou manipulés par un "faux AI".

2.Agent IA appelle automatiquement l'index et vérifie :

Les IA peuvent accéder directement à l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et de l'échange d'informations.

  • Scène de régulation financière : Si un agent IA émet des jetons de manière autonome, le système peut directement indexer son DID et sa notation, déterminer s'il s'agit d'un agent IA certifié, et se connecter automatiquement à des plateformes telles que CoinMarketCap pour aider à suivre la circulation des actifs et la conformité des émissions.
  • Scénario de vote de gouvernance : Lors de l'introduction du vote AI dans les propositions de gouvernance, le système peut vérifier si l'initiateur ou le participant au vote est un véritable agent AI, évitant ainsi que les droits de vote ne soient contrôlés ou abusés par des humains.
  • Prêt DeFi: Les protocoles de prêt peuvent accorder à l'agent AI des prêts de crédit de différents montants basés sur le système de notation SIGMA, formant ainsi des relations financières natives entre les agents.

L'agent IA DID n'est plus seulement une "identité", mais constitue également le soutien fondamental à la construction de fonctions clés telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une coopération efficace et une interconnexion des fonctions entre les agents IA.

Selon la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui favorisera la création d'un écosystème d'agents AI plus efficace, basé sur la confiance et la capacité de collaboration, permettant le partage des ressources, la réutilisation des capacités et l'augmentation continue de la valeur entre les agents.

AgentGo, en tant que première infrastructure d'identité fiable pour les agents IA, fournit un soutien central indispensable à la construction d'un écosystème intelligent hautement sécurisé et collaboratif.

Trusta.AI : Combler le fossé de confiance entre l'homme et la machine

TrustGo

TrustGo est un outil de gestion d'identité sur la chaîne développé par Trusta. Il fournit une notation basée sur cette interaction, l'"âge" du portefeuille, le volume de transactions et le montant des transactions. De plus, TrustGo offre des paramètres liés au classement de valeur sur la chaîne, permettant aux utilisateurs de rechercher activement des airdrops, augmentant ainsi leur capacité à obtenir des airdrops/retours.

La présence du MEDIA Score dans le mécanisme d'évaluation TrustGo est essentielle, car elle permet aux utilisateurs de s'auto-évaluer sur leurs activités. Le système d'évaluation du MEDIA Score ne se limite pas à des indicateurs simples comme le nombre et le montant des interactions des utilisateurs avec des contrats intelligents, des protocoles et des dApps, mais se concentre également sur le comportement des utilisateurs. Grâce au MEDIA Score, les utilisateurs peuvent en apprendre davantage.

TA-4.85%
AGENT-4.9%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Reposter
  • Partager
Commentaire
0/400
RuntimeErrorvip
· 08-12 13:30
Cette IA est vraiment devenue intelligente.
Voir l'originalRépondre0
MissedTheBoatvip
· 08-10 18:39
On devrait faire un Rug Pull, non ?
Voir l'originalRépondre0
OnchainFortuneTellervip
· 08-10 18:36
Symbiose homme-machine ? L'année prochaine, ma femme pourrait être une IA, non ?
Voir l'originalRépondre0
MetaverseHermitvip
· 08-10 18:35
Quoi ? Cet agent n'est pas très utile, non ?
Voir l'originalRépondre0
GasWastervip
· 08-10 18:27
Qu'est-ce que c'est encore un truc pour arnaquer de l'argent
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)