Analyse du paysage AI+Web3 : opportunités et défis de l'infrastructure aux modèles commerciaux

AI+Web3 : Tours et places

TL;DR

  1. Les projets Web3 basés sur l'IA deviennent des cibles d'attraction de capitaux sur les marchés primaire et secondaire.

  2. Les opportunités de Web3 dans l'industrie de l'IA se manifestent par : l'utilisation d'incitations distribuées pour coordonner l'offre potentielle dans la longue queue ------ à travers les données, le stockage et le calcul ; tout en établissant des modèles open source et un marché décentralisé pour les agents IA.

  3. L'IA est principalement appliquée dans l'industrie Web3 pour la finance sur la chaîne (paiements cryptographiques, transactions, analyse de données) et pour aider au développement.

  4. L'utilité de l'AI+Web3 se manifeste par la complémentarité des deux : Web3 pourrait lutter contre la centralisation de l'IA, tandis que l'IA pourrait aider Web3 à sortir de son cadre.

AI+Web3 : Tours et Places

Introduction

Au cours des deux dernières années, le développement de l'IA semble avoir été propulsé par un accélérateur. Cet effet papillon déclenché par Chatgpt a non seulement ouvert un nouveau monde de l'intelligence artificielle générative, mais a également provoqué de grandes vagues dans le domaine du Web3.

Sous l'impulsion du concept d'IA, le financement du marché des cryptomonnaies a clairement été stimulé. Selon les statistiques, au cours du premier semestre 2024, 64 projets Web3+IA ont réussi à lever des fonds, parmi lesquels le système d'exploitation basé sur l'intelligence artificielle Zyber365 a obtenu 100 millions de dollars lors de sa levée de fonds de série A.

Le marché secondaire est devenu plus prospère. Selon les données des sites d'agrégation de cryptomonnaies, la capitalisation totale du secteur de l'IA a atteint 48,5 milliards de dollars en un peu plus d'un an, avec un volume de transactions de près de 8,6 milliards de dollars en 24 heures. Les avancées technologiques majeures en IA ont apporté des bénéfices évidents : après la publication du modèle de conversion de texte en vidéo Sora d'OpenAI, le prix moyen du secteur de l'IA a augmenté de 151 %. L'effet de l'IA a également touché l'un des segments les plus lucratifs des cryptomonnaies, les Memes : le premier concept de MemeCoin basé sur un agent IA ------ GOAT a rapidement gagné en popularité et a été évalué à 1,4 milliard de dollars, déclenchant une frénésie des Memes IA.

La recherche et les sujets sur l'IA + Web3 sont également très populaires, passant de l'IA + Depin aux Memecoins IA, puis aux Agents IA et aux DAO IA actuels, le sentiment de FOMO ne peut plus suivre la vitesse de rotation des nouveaux récits.

AI+Web3, cette combinaison de termes remplie d'argent facile, de tendances et de fantasmes futurs, ne peut que sembler être un mariage arrangé par le capital. Il nous est difficile de discerner sous cette apparence brillante, s'il s'agit en réalité du terrain des spéculateurs ou de la veille d'une éruption à l'aube ?

Pour répondre à cette question, une réflexion clé est de se demander si l'autre partie va-t-elle s'améliorer ? Peut-on bénéficier des modèles de l'autre partie ? Dans cet article, nous essayons d'examiner ce schéma : comment Web3 peut-il jouer un rôle à chaque étape de la pile technologique de l'IA, et qu'est-ce que l'IA peut apporter de nouveau à Web3 ?

Partie 1 Quelles opportunités Web3 sous l'empilement AI ?

Avant d'aborder ce sujet, nous devons comprendre la pile technologique des grands modèles d'IA :

Expliquez le processus dans un langage simple : le « grand modèle » est comme le cerveau humain. À un stade précoce, ce cerveau appartient à un nouveau-né qui doit observer et ingérer une quantité massive d'informations externes pour comprendre le monde, c'est la phase de « collecte » des données. Étant donné que les ordinateurs n'ont pas les sens multiples des humains, avant l'entraînement, les informations externes massives non étiquetées doivent être converties en un format compréhensible et utilisable par l'ordinateur par le biais d'un « prétraitement ».

Après avoir entré les données, l'IA construit un modèle capable de compréhension et de prédiction grâce à l'« entraînement », ce qui peut être vu comme le processus par lequel un bébé comprend et apprend progressivement le monde extérieur. Les paramètres du modèle ressemblent à la capacité linguistique d'un bébé qui s'ajuste continuellement au cours de son apprentissage. Lorsque le contenu d'apprentissage commence à être spécialisé ou que des échanges avec des personnes apportent des retours et des corrections, cela entre dans la phase de « réglage fin » du grand modèle.

Lorsque les enfants grandissent et commencent à parler, ils peuvent comprendre le sens dans de nouvelles conversations et exprimer leurs sentiments et leurs pensées. Cette étape est similaire au « raisonnement » des grands modèles d'IA, où le modèle peut prédire et analyser de nouvelles entrées linguistiques et textuelles. Les bébés expriment leurs sentiments, décrivent des objets et résolvent des problèmes grâce à leurs compétences linguistiques, ce qui est également similaire à l'application des grands modèles d'IA dans la phase de raisonnement pour diverses tâches spécifiques, telles que la classification d'images, la reconnaissance vocale, etc.

L'AI Agent est plus proche de la prochaine forme du grand modèle------capable d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes, possédant non seulement des capacités de réflexion, mais aussi de mémoire, de planification, et capable d'utiliser des outils pour interagir avec le monde.

Actuellement, face aux points de douleur de l'IA dans les différentes couches, le Web3 a commencé à former un écosystème multicouche et interconnecté, couvrant toutes les étapes du processus des modèles d'IA.

AI+Web3 : Tours et places

I. Couche de base : Airbnb pour la puissance de calcul et les données

Puissance de calcul

Actuellement, l'un des coûts les plus élevés de l'IA est la puissance de calcul et l'énergie nécessaires à l'entraînement et à l'inférence des modèles.

Le LLAMA3 de Meta nécessite 16 000 GPU H100 produits par NVIDIA (un processeur graphique haut de gamme conçu pour l'intelligence artificielle et les charges de travail de calcul haute performance) pour terminer l'entraînement en 30 jours. La version de 80 Go coûte entre 30 000 et 40 000 dollars, ce qui nécessite un investissement en matériel de calcul de 400 à 700 millions de dollars (GPU + puces réseau), tout en consommant 1,6 milliard de kilowattheures par mois, les dépenses énergétiques atteignant près de 20 millions de dollars par mois.

La décompression de la puissance de calcul de l'IA est également l'un des premiers domaines d'intersection entre le Web3 et l'IA ------ DePin (réseau d'infrastructure physique décentralisé). Actuellement, le site de données DePin Ninja a répertorié plus de 1400 projets, parmi lesquels les projets représentatifs de partage de puissance GPU incluent io.net, Aethir, Akash, Render Network, etc.

La logique principale réside dans le fait que la plateforme permet aux particuliers ou entités possédant des ressources GPU inutilisées de contribuer à la puissance de calcul de manière décentralisée et sans autorisation. Grâce à un marché en ligne pour les acheteurs et les vendeurs similaire à Uber ou Airbnb, cela augmente l'utilisation des ressources GPU sous-utilisées, permettant ainsi aux utilisateurs finaux d'accéder à des ressources de calcul efficaces à moindre coût. En même temps, le mécanisme de staking garantit que, en cas de violation des mécanismes de contrôle de la qualité ou d'interruption du réseau, les fournisseurs de ressources seront soumis à des sanctions appropriées.

Ses caractéristiques sont :

  • Rassembler des ressources GPU inactives : les fournisseurs sont principalement des opérateurs de centres de données indépendants de taille petite à moyenne, des mines de cryptomonnaies, etc., disposant de ressources de puissance de calcul excédentaires, et le mécanisme de consensus est lié au matériel de minage PoS, comme les mineurs FileCoin et ETH. Actuellement, certains projets s'efforcent de lancer des équipements avec des barrières d'entrée plus faibles, comme exolab qui utilise des appareils locaux tels que MacBook, iPhone, iPad pour établir un réseau de calcul pour l'inférence de grands modèles.

  • Faire face au marché long tail de la puissance de calcul AI :

a. Le marché de la puissance de calcul décentralisée au niveau technique est plus adapté aux étapes d'inférence. L'entraînement dépend davantage de la capacité de traitement des données fournie par des GPU de très grande taille, tandis que l'inférence a des exigences de performance GPU relativement faibles, comme Aethir qui se concentre sur le rendu à faible latence et les applications d'inférence AI.

b. Les demandeurs de puissance de calcul intermédiaire ne formeront pas leurs propres grands modèles de manière indépendante, mais choisiront plutôt d'optimiser et d'ajuster quelques grands modèles principaux. Ces scénarios sont naturellement adaptés aux ressources de calcul inutilisées distribuées.

  • Propriété décentralisée : La signification technique de la blockchain réside dans le fait que les propriétaires de ressources conservent toujours le contrôle sur celles-ci, peuvent les ajuster de manière flexible en fonction des besoins et en tirer des bénéfices.

Données

Les données sont la base de l'IA. Sans données, le calcul est comme des roseaux flottants, complètement inutile, et la relation entre les données et le modèle est comme le dit populaire "Garbage in, Garbage out". La quantité des données et la qualité des entrées déterminent la qualité de sortie du modèle final. Pour l'entraînement des modèles d'IA actuels, les données déterminent les capacités linguistiques, de compréhension, voire les valeurs et l'expression humanisée du modèle. Actuellement, les difficultés de demande de données de l'IA se concentrent principalement sur les quatre aspects suivants :

  • Soif de données : L'entraînement des modèles d'IA dépend d'un volume massif de données. Les documents publics montrent que OpenAI a atteint des milliards de paramètres pour entraîner GPT-4.

  • Qualité des données : Avec l'intégration de l'IA dans divers secteurs, la pertinence temporelle des données, leur diversité, la spécialisation des données par secteur et l'intégration de nouvelles sources de données telles que les émotions sur les réseaux sociaux posent de nouvelles exigences sur leur qualité.

  • Problèmes de confidentialité et de conformité : Les pays et les entreprises prennent de plus en plus conscience de l'importance des ensembles de données de qualité et commencent à imposer des restrictions sur le crawlage des ensembles de données.

  • Coûts de traitement des données élevés : volume de données important, processus de traitement complexe. Les données publiques montrent que plus de 30 % des coûts de R&D des entreprises d'IA sont consacrés à la collecte et au traitement des données de base.

Actuellement, les solutions web3 se manifestent dans les quatre domaines suivants :

  1. Collecte de données : Les données du monde réel, fournies gratuitement, s'épuisent rapidement, et les dépenses des entreprises d'IA pour les données augmentent chaque année. Cependant, ces dépenses ne profitent pas réellement aux véritables contributeurs de données, les plateformes profitant pleinement de la création de valeur apportée par les données, comme Reddit qui a réalisé un revenu total de 203 millions de dollars grâce à des accords de licence de données signés avec des entreprises d'IA.

Permettre aux utilisateurs qui contribuent réellement de participer à la création de valeur générée par les données, ainsi que d'obtenir des données plus privées et plus précieuses à moindre coût grâce à un réseau distribué et à des mécanismes d'incitation, est la vision du Web3.

  • Grass est une couche de données et un réseau décentralisés, permettant aux utilisateurs de contribuer leur bande passante inutilisée et de relayer du trafic en exécutant des nœuds Grass afin de capturer des données en temps réel provenant de l'ensemble d'Internet, et de recevoir des récompenses en tokens ;

  • Vana a introduit le concept unique de pool de liquidité de données (DLP), permettant aux utilisateurs de télécharger des données privées (telles que les historiques d'achats, les habitudes de navigation, les activités sur les réseaux sociaux, etc.) dans un DLP spécifique et de choisir librement s'ils souhaitent autoriser l'utilisation de ces données par des tiers spécifiques ;

  • Dans PublicAI, les utilisateurs peuvent utiliser #AI或#Web3 comme étiquette de classification sur X et @PublicAI pour collecter des données.

  1. Prétraitement des données : Dans le processus de traitement des données AI, les données collectées sont souvent bruyantes et contiennent des erreurs. Avant d'entraîner le modèle, il est nécessaire de les nettoyer et de les convertir en un format utilisable, impliquant des tâches répétitives de normalisation, de filtrage et de traitement des valeurs manquantes. Cette étape est l'un des rares moments manuels dans l'industrie de l'IA, ayant donné naissance au métier de annotateur de données. Avec l'augmentation des exigences de qualité des données par les modèles, le seuil d'entrée pour les annotateurs de données a également augmenté, et cette tâche est naturellement adaptée au mécanisme d'incitation décentralisé de Web3.
  • Actuellement, Grass et OpenLayer envisagent d'ajouter cette étape clé de l'annotation des données.

  • Synesis a proposé le concept de « Train2earn », mettant l'accent sur la qualité des données. Les utilisateurs peuvent obtenir des récompenses en fournissant des données annotées, des commentaires ou d'autres formes d'entrée.

  • Le projet de marquage de données Sapien gamifie les tâches de marquage et permet aux utilisateurs de miser des points pour en gagner davantage.

  1. Confidentialité et sécurité des données : Il est nécessaire de clarifier que la confidentialité des données et la sécurité des données sont deux concepts différents. La confidentialité des données concerne le traitement des données sensibles, tandis que la sécurité des données protège les informations contre l'accès, la destruction et le vol non autorisés. Ainsi, les avantages des technologies de confidentialité Web3 et les scénarios d'application potentiels se manifestent de deux manières : (1) Entraînement de données sensibles ; (2) Collaboration sur les données : plusieurs propriétaires de données peuvent participer ensemble à l'entraînement de l'IA sans avoir à partager les données brutes.

Les technologies de confidentialité actuellement courantes dans le Web3 incluent :

  • Environnement d'exécution de confiance ( TEE ), tel que le Super Protocol ;

  • Chiffrement homomorphe complet (FHE), par exemple BasedAI, Fhenix.io ou Inco Network ;

  • La technologie de preuve à divulgation nulle de connaissance (zk), comme le Reclaim Protocol utilisant la technologie zkTLS, génère des preuves à divulgation nulle de connaissance pour le trafic HTTPS, permettant aux utilisateurs d'importer en toute sécurité des données sur leurs activités, leur réputation et leur identité depuis des sites externes, sans exposer d'informations sensibles.

Cependant, ce domaine est encore à un stade précoce, la plupart des projets sont encore en exploration, un des dilemmes actuels est que le coût de calcul est trop élevé, par exemple :

  • Le cadre zkML EZKL nécessite environ 80 minutes pour générer la preuve du modèle 1M-nanoGPT.

  • Selon les données de Modulus Labs, les coûts de zkML sont plus de 1000 fois supérieurs à ceux du calcul pur.

  1. Stockage des données : Une fois les données obtenues, un endroit est nécessaire pour stocker les données sur la chaîne, ainsi que le LLM généré à partir de ces données. En prenant la disponibilité des données (DA) comme problème central, avant la mise à niveau Danksharding d'Ethereum, son débit était de 0,08 Mo. Or, l'entraînement des modèles d'IA et l'inférence en temps réel nécessitent généralement un débit de données de 50 à 100 Go par seconde. Cet écart d'ordre de grandeur rend les solutions existantes sur la chaîne incapables de faire face aux "applications IA gourmandes en ressources".
  • 0g.AI est un projet représentatif de cette catégorie. C'est une solution de stockage centralisée conçue pour des besoins de haute performance en IA, avec des caractéristiques clés incluant : haute performance et évolutivité, prise en charge du téléchargement et du téléchargement rapides de grands ensembles de données grâce à des technologies de sharding avancées et de codage de correction d'erreurs, avec une vitesse de transfert de données proche de 5 Go par seconde.

II. Middleware : Entraînement et inférence du modèle

Marché décentralisé de modèles open source

Le débat sur la fermeture ou l'ouverture des modèles d'IA n'a jamais disparu. L'innovation collective apportée par l'open source est inégalée par les modèles fermés.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
MEVVictimAlliancevip
· Il y a 8h
Encore une vague de grandes entreprises qui se font prendre pour des cons.
Voir l'originalRépondre0
BlockchainFoodievip
· 07-07 08:28
servir un peu d'alpha web3 comme un chef defi étoilé Michelin... cette combinaison ai+web3 ressemble à la recette parfaite ngl
Voir l'originalRépondre0
PaperHandsCriminalvip
· 07-07 08:26
Se faire prendre pour des cons 见啥 hausse啥抄
Voir l'originalRépondre0
GateUser-00be86fcvip
· 07-07 08:23
Il y a encore du potentiel dans le炒概念.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)