OPML : Mettre en œuvre un mécanisme optimiste pour un apprentissage automatique efficace et fiable
Résumé
Cet article présente une nouvelle méthode appelée OPML( apprentissage automatique optimiste ), qui permet d'effectuer efficacement l'inférence et l'entraînement de modèles d'IA sur des systèmes blockchain. Par rapport à l'apprentissage automatique à connaissance nulle ( ZKML), OPML peut offrir des services d'apprentissage automatique à moindre coût et avec une plus grande efficacité. Les exigences matérielles d'OPML sont très faibles, un PC ordinaire peut exécuter de grands modèles de langage tels que 7B-LLaMA.
OPML adopte un mécanisme de jeu de vérification pour garantir la décentralisation et le consensus vérifiable des services d'apprentissage automatique. L'ensemble du processus comprend : le demandeur initie une tâche, le serveur termine la tâche et soumet les résultats, le vérificateur vérifie les résultats ; en cas de litige, l'erreur est localisée précisément par un protocole de division, et enfin, un contrat intelligent arbitre.
Jeu de validation à une étape
Le cœur de l'OPML à une seule étape est la construction d'une machine virtuelle hors chaîne d'exécution et d'arbitrage en chaîne (VM). Pour améliorer l'efficacité de l'inférence des modèles d'IA, une bibliothèque de réseaux de neurones profonds légère et dédiée a été mise en œuvre. La technologie de compilation croisée a été utilisée pour compiler le code d'inférence du modèle d'IA en instructions VM, et l'image VM est gérée par un arbre de Merkle.
Dans les tests pratiques, un modèle de classification AI de base prend 2 secondes pour l'inférence dans la VM, et l'ensemble du processus de défi peut être réalisé en 2 minutes dans un environnement de test Ethereum local.
Jeu de vérification multi-niveaux
Pour surmonter les limitations des protocoles à une seule étape, un jeu de validation multi-étapes a été proposé. Cette méthode ne nécessite des calculs dans la VM qu'à la dernière étape, les autres étapes pouvant être exécutées de manière flexible dans un environnement local, tirant pleinement parti des capacités d'accélération matérielle telles que le CPU et le GPU.
Prenons l'OPML en deux étapes comme exemple, la deuxième étape correspond à "grande instruction", la première étape est similaire à un jeu à une seule étape. L'intégrité et la sécurité entre les différentes étapes sont assurées par un arbre de Merkle.
Dans le modèle LLaMA, le processus de calcul des réseaux de neurones profonds peut être représenté sous forme de graphique de calcul. La deuxième étape consiste à effectuer une validation du jeu sur le graphique de calcul, ce qui peut être accéléré en utilisant un CPU ou un GPU multithread. La première étape convertit le calcul d'un seul nœud en instructions VM.
Analyse des performances
Comparé à l'OPML à une étape, l'OPML à deux étapes réalise un accélération de calcul de α fois, où α représente le facteur d'accélération apporté par le GPU ou le calcul parallèle. En ce qui concerne la taille de l'arbre de Merkle, l'OPML à deux étapes est de O(m+n), tandis que l'OPML à une étape est de O(mn), où m et n représentent respectivement le nombre d'instructions VM et le nombre de nœuds dans le graphe de calcul.
Garantie de cohérence
Pour assurer la cohérence interplateforme, OPML utilise deux méthodes clés :
Utiliser l'algorithme à point fixe ( pour la technologie de quantification ) afin de réduire l'impact des erreurs d'arrondi flottant.
Utiliser une bibliothèque de flottants basée sur un logiciel pour garantir la cohérence multiplateforme.
Ces méthodes jettent les bases pour obtenir des résultats fiables en apprentissage automatique au sein du cadre OPML.
OPML vs ZKML
OPML présente des avantages par rapport à ZKML, tels qu'une complexité de calcul plus faible, une efficacité supérieure et un seuil de participation plus bas. Actuellement, OPML se concentre principalement sur l'inférence de modèles, mais le cadre prend également en charge le processus d'entraînement et peut être utilisé pour diverses tâches d'apprentissage automatique.
Le projet OPML est toujours en cours de développement actif, et nous invitons les développeurs intéressés à contribuer.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
5
Reposter
Partager
Commentaire
0/400
AllInDaddy
· 08-16 17:02
Regarde un marteau, fais un All in pour acheter du BTC.
Voir l'originalRépondre0
NeverPresent
· 08-16 16:56
Ça doit être une saisie, non ? ZKML rigole aux larmes.
Voir l'originalRépondre0
ProbablyNothing
· 08-16 16:56
Est-ce que brûler directement les neurones est aussi économe en énergie ?
Voir l'originalRépondre0
liquidation_surfer
· 08-16 16:37
La combinaison de l'efficacité du Mining semble très bonne.
OPML : nouvelle solution d'apprentissage automatique optimiste sur la Blockchain, l'efficacité dépasse largement ZKML
OPML : Mettre en œuvre un mécanisme optimiste pour un apprentissage automatique efficace et fiable
Résumé
Cet article présente une nouvelle méthode appelée OPML( apprentissage automatique optimiste ), qui permet d'effectuer efficacement l'inférence et l'entraînement de modèles d'IA sur des systèmes blockchain. Par rapport à l'apprentissage automatique à connaissance nulle ( ZKML), OPML peut offrir des services d'apprentissage automatique à moindre coût et avec une plus grande efficacité. Les exigences matérielles d'OPML sont très faibles, un PC ordinaire peut exécuter de grands modèles de langage tels que 7B-LLaMA.
OPML adopte un mécanisme de jeu de vérification pour garantir la décentralisation et le consensus vérifiable des services d'apprentissage automatique. L'ensemble du processus comprend : le demandeur initie une tâche, le serveur termine la tâche et soumet les résultats, le vérificateur vérifie les résultats ; en cas de litige, l'erreur est localisée précisément par un protocole de division, et enfin, un contrat intelligent arbitre.
Jeu de validation à une étape
Le cœur de l'OPML à une seule étape est la construction d'une machine virtuelle hors chaîne d'exécution et d'arbitrage en chaîne (VM). Pour améliorer l'efficacité de l'inférence des modèles d'IA, une bibliothèque de réseaux de neurones profonds légère et dédiée a été mise en œuvre. La technologie de compilation croisée a été utilisée pour compiler le code d'inférence du modèle d'IA en instructions VM, et l'image VM est gérée par un arbre de Merkle.
Dans les tests pratiques, un modèle de classification AI de base prend 2 secondes pour l'inférence dans la VM, et l'ensemble du processus de défi peut être réalisé en 2 minutes dans un environnement de test Ethereum local.
Jeu de vérification multi-niveaux
Pour surmonter les limitations des protocoles à une seule étape, un jeu de validation multi-étapes a été proposé. Cette méthode ne nécessite des calculs dans la VM qu'à la dernière étape, les autres étapes pouvant être exécutées de manière flexible dans un environnement local, tirant pleinement parti des capacités d'accélération matérielle telles que le CPU et le GPU.
Prenons l'OPML en deux étapes comme exemple, la deuxième étape correspond à "grande instruction", la première étape est similaire à un jeu à une seule étape. L'intégrité et la sécurité entre les différentes étapes sont assurées par un arbre de Merkle.
Dans le modèle LLaMA, le processus de calcul des réseaux de neurones profonds peut être représenté sous forme de graphique de calcul. La deuxième étape consiste à effectuer une validation du jeu sur le graphique de calcul, ce qui peut être accéléré en utilisant un CPU ou un GPU multithread. La première étape convertit le calcul d'un seul nœud en instructions VM.
Analyse des performances
Comparé à l'OPML à une étape, l'OPML à deux étapes réalise un accélération de calcul de α fois, où α représente le facteur d'accélération apporté par le GPU ou le calcul parallèle. En ce qui concerne la taille de l'arbre de Merkle, l'OPML à deux étapes est de O(m+n), tandis que l'OPML à une étape est de O(mn), où m et n représentent respectivement le nombre d'instructions VM et le nombre de nœuds dans le graphe de calcul.
Garantie de cohérence
Pour assurer la cohérence interplateforme, OPML utilise deux méthodes clés :
Ces méthodes jettent les bases pour obtenir des résultats fiables en apprentissage automatique au sein du cadre OPML.
OPML vs ZKML
OPML présente des avantages par rapport à ZKML, tels qu'une complexité de calcul plus faible, une efficacité supérieure et un seuil de participation plus bas. Actuellement, OPML se concentre principalement sur l'inférence de modèles, mais le cadre prend également en charge le processus d'entraînement et peut être utilisé pour diverses tâches d'apprentissage automatique.
Le projet OPML est toujours en cours de développement actif, et nous invitons les développeurs intéressés à contribuer.