L'industrie de l'intelligence artificielle se développe rapidement ces derniers temps, considérée comme une nouvelle révolution industrielle. L'émergence de grands modèles a considérablement amélioré l'efficacité dans divers secteurs, et le Boston Consulting Group estime que le GPT a augmenté d'environ 20 % l'efficacité du travail aux États-Unis. La capacité de généralisation des grands modèles est considérée comme un nouveau paradigme de conception logicielle, permettant aux logiciels d'avoir de meilleures performances et un soutien modal plus large. Les technologies d'apprentissage profond apportent une quatrième prospérité à l'industrie de l'IA, et cette vague influence également l'industrie des cryptomonnaies.
Ce rapport examinera en détail l'évolution de l'industrie de l'IA, les classifications technologiques ainsi que l'impact de l'apprentissage profond sur le secteur. Une analyse approfondie de la chaîne d'approvisionnement de l'apprentissage profond, y compris les GPU, l'informatique en nuage, les sources de données et les dispositifs de périphérie, ainsi que leur état actuel et leurs tendances. Il explorera essentiellement la relation entre les cryptomonnaies et l'industrie de l'IA, en clarifiant la configuration de la chaîne d'approvisionnement de l'IA liée aux cryptomonnaies.
Histoire du développement de l'industrie de l'IA
L'industrie de l'IA a commencé dans les années 1950. Pour réaliser la vision de l'intelligence artificielle, le monde académique et l'industrie ont développé diverses voies de réalisation dans des contextes historiques différents.
Les technologies modernes de l'intelligence artificielle utilisent principalement la méthode de « apprentissage automatique », permettant aux machines d'améliorer les performances du système par itération de données. Les étapes principales consistent à entrer des données dans l'algorithme, à entraîner le modèle, à tester le déploiement et à effectuer des tâches de prédiction automatique.
Il existe trois grandes écoles de pensée en apprentissage automatique : le connexionnisme, le symbolisme et le comportementalisme, qui imitent respectivement le système nerveux, la pensée et le comportement humain.
Actuellement, le connexionnisme représenté par les réseaux de neurones domine, également appelé apprentissage profond. Les réseaux de neurones ont une couche d'entrée, une couche de sortie et plusieurs couches cachées. Lorsque le nombre de couches et de neurones est suffisamment élevé, ils peuvent ajuster des tâches générales complexes. En ajustant continuellement les paramètres, on atteint finalement un état optimal, d'où vient le terme "profondeur".
La technologie d'apprentissage profond a connu plusieurs itérations, des premiers réseaux de neurones aux réseaux de neurones à propagation avant, RNN, CNN, GAN, jusqu'aux grands modèles modernes comme ceux utilisant la technologie Transformer de GPT. La technologie Transformer n'est qu'une direction d'évolution des réseaux de neurones, ajoutant un module de transformateur qui peut coder des données multimodales en représentations numériques avant de les entrer dans le réseau de neurones, permettant ainsi un traitement multimodal.
Le développement de l'IA a traversé trois vagues technologiques :
Dans les années 1960, le développement des technologies symbolistes a déclenché la première vague, résolvant les problèmes de traitement du langage naturel et de dialogue homme-machine. Les systèmes experts sont également nés à cette époque.
En 1997, Deep Blue d'IBM a battu le champion d'échecs, marquant le début d'un second apogée pour la technologie IA.
En 2006, le concept d'apprentissage profond a été proposé, marquant le début de la troisième vague technologique. Les algorithmes d'apprentissage profond évoluent constamment, passant des RNN, GAN aux Transformateurs et à la Stable Diffusion, le connexionnisme connaissant une période de prospérité.
De nombreux événements emblématiques ont émergé lors de la troisième vague :
En 2011, IBM Watson a battu des humains dans le jeu-questionnaire "Dangerous Edge".
En 2014, Goodfellow a proposé le GAN
En 2015, Hinton et al. ont proposé des algorithmes d'apprentissage profond dans la revue "Nature".
En 2016, AlphaGo a vaincu Lee Sedol
En 2017, Google a publié un article sur l'algorithme Transformer.
En 2018, OpenAI a publié GPT
En 2020, OpenAI a publié GPT-3
En 2023, ChatGPT a été lancé et a rapidement atteint 100 millions d'utilisateurs.
Chaîne de valeur de l'apprentissage profond
Les grands modèles de langage actuels utilisent principalement des méthodes d'apprentissage profond basées sur des réseaux de neurones. Les grands modèles, à commencer par GPT, ont déclenché une nouvelle vague d'engouement pour l'IA, avec une demande croissante sur le marché pour les données et la puissance de calcul. Cette section explore la composition et l'état de développement de la chaîne industrielle des algorithmes d'apprentissage profond.
L'entraînement des grands modèles se divise principalement en trois étapes :
Pré-entraînement : saisir une grande quantité de données pour trouver les meilleurs paramètres, ce qui consomme le plus de puissance de calcul.
Ajustement : entraîner avec une petite quantité de données de haute qualité pour améliorer la qualité du modèle.
Apprentissage par renforcement : établir un modèle de récompense pour évaluer la qualité de la sortie, itérer automatiquement les paramètres.
Les performances des grands modèles sont principalement influencées par trois aspects : le nombre de paramètres, la qualité et la quantité de données, et la puissance de calcul. Une formule empirique peut être utilisée pour estimer la quantité de calcul nécessaire.
La puissance de calcul utilise principalement des puces GPU, comme les A100 et H100 de Nvidia. Les GPU effectuent des calculs en virgule flottante via le module Tensor Core, et les performances des puces sont principalement évaluées en FLOPS à la précision FP16/FP32.
Entraîner de grands modèles nécessite une quantité énorme de calculs et d'espace de stockage. Prenons GPT-3 comme exemple : 175 milliards de paramètres et 180 milliards de données Token, une préformation nécessite 584 jours. Les paramètres et la quantité de données de GPT-4 augmentent encore de 10 fois, nécessitant 100 fois plus de puissance de calcul.
La chaîne de production comprend principalement :
Fournisseur de matériel GPU : Nvidia domine
Fournisseurs de services cloud : fournisseurs de cloud traditionnels et fournisseurs de services cloud verticaux en IA
Fournisseurs de données d'entraînement : moteurs de recherche, plateformes sociales, etc.
Fournisseur de base de données : base de données vectorielle
Dispositifs périphériques : système de refroidissement, fourniture d'énergie
Application : encore au stade initial
La relation entre la crypto et l'IA
La technologie blockchain combinée au développement ZK devient une pensée décentralisée et sans confiance. Essentiellement, il s'agit d'un réseau de valeur, chaque transaction étant une conversion de valeur basée sur des jetons.
L'économie des tokens peut conférer une valeur multidimensionnelle au réseau, dépassant de loin celle des titres d'entreprise traditionnels. Les tokens permettent à toute innovation et idée de se voir attribuer de la valeur.
Dans l'industrie de l'IA, l'économie des tokens peut restructurer la valeur à chaque étape de la chaîne industrielle et inciter davantage de participants. Les caractéristiques de la blockchain, telles que l'immutabilité et la décentralisation, peuvent également permettre certaines applications de l'IA qui nécessitent la confiance.
En résumé, l'économie des tokens favorise la restructuration et la découverte de la valeur, les registres décentralisés résolvent les problèmes de confiance, et la valeur circule à nouveau à l'échelle mondiale.
Aperçu du projet de chaîne de valeur dans l'industrie crypto
( offre de GPU
Des projets représentatifs comme Render. Le marché de la puissance de calcul GPU cloud est non seulement destiné à l'entraînement et à l'inférence des modèles d'IA, mais peut également être utilisé pour des tâches de rendu traditionnelles, réduisant ainsi le risque d'un marché unique.
La demande de puissance de calcul GPU devrait atteindre environ 75 milliards de dollars en 2024, atteignant 773 milliards de dollars en 2032, avec un TCAC de 33,86 %.
Avec l'itération des GPU, de nombreux GPU inutilisés joueront un rôle de valeur à long terme dans un réseau partagé. Cependant, le partage de GPU sur la blockchain présente des problèmes de bande passante de transmission de données.
![Nouvelle compréhension丨AI x Crypto : de zéro à sommet])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) bande passante matérielle
Des projets tels que Meson Network. Cependant, le partage de bande passante peut être une demande illusoire, car la dispersion géographique entraîne des délais supérieurs à ceux du stockage local.
![Nouveau guide丨IA x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
) données
Des projets représentatifs comme EpiK Protocol, Synesis One, Masa, etc. L'avantage des fournisseurs de données Web3 réside dans des canaux de collecte de données plus larges. Les projets dans la direction ZK comme Masa ont de bonnes perspectives.
![Nouvelle introduction丨AI x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-8358c377eb2c07467848b3b46dbf1056.webp(
) ZKML
Utiliser la technologie de cryptographie homomorphe pour réaliser des calculs de confidentialité et des entraînements. Des projets représentatifs comme Axiom, Risc Zero, Ritual, etc.
![Nouveaux utilisateurs Guide丨AI x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-c8845a5920048e7c821c939e2d8304e7.webp(
) Application AI
Principalement des applications blockchain traditionnelles + capacité de généralisation automatisée. L'agent IA devient une direction importante, des projets représentatifs comme Fetch.AI.
![Nouvelle introduction丨AI x Crypto : de zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-2ed56db6cae1b0206e8e0daa9b1892fd.webp(
) Chaîne publique AI
Réseaux adaptatifs construits pour des modèles ou agents IA, tels que Tensor, Allora, etc. Basé sur l'économie de token, cela peut réduire considérablement les coûts d'inférence.
![Nouveau Guide丨AI x Crypto : De zéro à l'apogée]###https://img-cdn.gateio.im/webp-social/moments-c733612f35e5a4a21d8d39a0a77f85b8.webp(
Résumé
Bien que la technologie d'apprentissage en profondeur ne soit pas la seule direction de développement de l'IA, elle a déjà des scénarios d'application pratiques. L'économie des jetons peut reconfigurer la valeur de la chaîne industrielle de l'IA, et la technologie blockchain peut résoudre le problème de la confiance.
Bien que la plateforme de partage de GPU puisse réduire les coûts en utilisant la puissance de calcul inutilisée, les problèmes de bande passante limitent son utilisation uniquement à l'entraînement de petits modèles non urgents.
Dans l'ensemble, la combinaison de l'IA et de la crypto présente une utilité réelle, capable de remodeler le système de valeur, de résoudre les problèmes de confiance et de découvrir la valeur résiduelle.
![Nouveau Guide丨AI x Crypto : De zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-b97be5c0fd9efe0b79e2e6fcd4493212.webp###
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Partager
Commentaire
0/400
ShadowStaker
· Il y a 6h
meh... une autre analyse théorique sans aborder les véritables goulets d'étranglement MEV
Voir l'originalRépondre0
MoonMathMagic
· 07-24 20:32
l'univers de la cryptomonnaie est encore en train de parler d'IA~
Voir l'originalRépondre0
ContractSurrender
· 07-24 20:28
Pas de pigeons, le marché est comme ça.
Voir l'originalRépondre0
LiquidatedAgain
· 07-24 20:23
On va encore tout mettre sur l'IA, n'est-ce pas ? Tu trouves que tu perds encore trop peu ?
Voir l'originalRépondre0
FundingMartyr
· 07-24 20:08
Pionnier technologique, mais la puissance de calcul est difficile à exprimer !
L'intégration de l'IA et des cryptoactifs : redéfinir le système de valeur et la structure de la chaîne industrielle
IA x Crypto : De zéro au sommet
Introduction
L'industrie de l'intelligence artificielle se développe rapidement ces derniers temps, considérée comme une nouvelle révolution industrielle. L'émergence de grands modèles a considérablement amélioré l'efficacité dans divers secteurs, et le Boston Consulting Group estime que le GPT a augmenté d'environ 20 % l'efficacité du travail aux États-Unis. La capacité de généralisation des grands modèles est considérée comme un nouveau paradigme de conception logicielle, permettant aux logiciels d'avoir de meilleures performances et un soutien modal plus large. Les technologies d'apprentissage profond apportent une quatrième prospérité à l'industrie de l'IA, et cette vague influence également l'industrie des cryptomonnaies.
Ce rapport examinera en détail l'évolution de l'industrie de l'IA, les classifications technologiques ainsi que l'impact de l'apprentissage profond sur le secteur. Une analyse approfondie de la chaîne d'approvisionnement de l'apprentissage profond, y compris les GPU, l'informatique en nuage, les sources de données et les dispositifs de périphérie, ainsi que leur état actuel et leurs tendances. Il explorera essentiellement la relation entre les cryptomonnaies et l'industrie de l'IA, en clarifiant la configuration de la chaîne d'approvisionnement de l'IA liée aux cryptomonnaies.
Histoire du développement de l'industrie de l'IA
L'industrie de l'IA a commencé dans les années 1950. Pour réaliser la vision de l'intelligence artificielle, le monde académique et l'industrie ont développé diverses voies de réalisation dans des contextes historiques différents.
Les technologies modernes de l'intelligence artificielle utilisent principalement la méthode de « apprentissage automatique », permettant aux machines d'améliorer les performances du système par itération de données. Les étapes principales consistent à entrer des données dans l'algorithme, à entraîner le modèle, à tester le déploiement et à effectuer des tâches de prédiction automatique.
Il existe trois grandes écoles de pensée en apprentissage automatique : le connexionnisme, le symbolisme et le comportementalisme, qui imitent respectivement le système nerveux, la pensée et le comportement humain.
Actuellement, le connexionnisme représenté par les réseaux de neurones domine, également appelé apprentissage profond. Les réseaux de neurones ont une couche d'entrée, une couche de sortie et plusieurs couches cachées. Lorsque le nombre de couches et de neurones est suffisamment élevé, ils peuvent ajuster des tâches générales complexes. En ajustant continuellement les paramètres, on atteint finalement un état optimal, d'où vient le terme "profondeur".
La technologie d'apprentissage profond a connu plusieurs itérations, des premiers réseaux de neurones aux réseaux de neurones à propagation avant, RNN, CNN, GAN, jusqu'aux grands modèles modernes comme ceux utilisant la technologie Transformer de GPT. La technologie Transformer n'est qu'une direction d'évolution des réseaux de neurones, ajoutant un module de transformateur qui peut coder des données multimodales en représentations numériques avant de les entrer dans le réseau de neurones, permettant ainsi un traitement multimodal.
Le développement de l'IA a traversé trois vagues technologiques :
Dans les années 1960, le développement des technologies symbolistes a déclenché la première vague, résolvant les problèmes de traitement du langage naturel et de dialogue homme-machine. Les systèmes experts sont également nés à cette époque.
En 1997, Deep Blue d'IBM a battu le champion d'échecs, marquant le début d'un second apogée pour la technologie IA.
En 2006, le concept d'apprentissage profond a été proposé, marquant le début de la troisième vague technologique. Les algorithmes d'apprentissage profond évoluent constamment, passant des RNN, GAN aux Transformateurs et à la Stable Diffusion, le connexionnisme connaissant une période de prospérité.
De nombreux événements emblématiques ont émergé lors de la troisième vague :
Chaîne de valeur de l'apprentissage profond
Les grands modèles de langage actuels utilisent principalement des méthodes d'apprentissage profond basées sur des réseaux de neurones. Les grands modèles, à commencer par GPT, ont déclenché une nouvelle vague d'engouement pour l'IA, avec une demande croissante sur le marché pour les données et la puissance de calcul. Cette section explore la composition et l'état de développement de la chaîne industrielle des algorithmes d'apprentissage profond.
L'entraînement des grands modèles se divise principalement en trois étapes :
Pré-entraînement : saisir une grande quantité de données pour trouver les meilleurs paramètres, ce qui consomme le plus de puissance de calcul.
Ajustement : entraîner avec une petite quantité de données de haute qualité pour améliorer la qualité du modèle.
Apprentissage par renforcement : établir un modèle de récompense pour évaluer la qualité de la sortie, itérer automatiquement les paramètres.
Les performances des grands modèles sont principalement influencées par trois aspects : le nombre de paramètres, la qualité et la quantité de données, et la puissance de calcul. Une formule empirique peut être utilisée pour estimer la quantité de calcul nécessaire.
La puissance de calcul utilise principalement des puces GPU, comme les A100 et H100 de Nvidia. Les GPU effectuent des calculs en virgule flottante via le module Tensor Core, et les performances des puces sont principalement évaluées en FLOPS à la précision FP16/FP32.
Entraîner de grands modèles nécessite une quantité énorme de calculs et d'espace de stockage. Prenons GPT-3 comme exemple : 175 milliards de paramètres et 180 milliards de données Token, une préformation nécessite 584 jours. Les paramètres et la quantité de données de GPT-4 augmentent encore de 10 fois, nécessitant 100 fois plus de puissance de calcul.
La chaîne de production comprend principalement :
La relation entre la crypto et l'IA
La technologie blockchain combinée au développement ZK devient une pensée décentralisée et sans confiance. Essentiellement, il s'agit d'un réseau de valeur, chaque transaction étant une conversion de valeur basée sur des jetons.
L'économie des tokens peut conférer une valeur multidimensionnelle au réseau, dépassant de loin celle des titres d'entreprise traditionnels. Les tokens permettent à toute innovation et idée de se voir attribuer de la valeur.
Dans l'industrie de l'IA, l'économie des tokens peut restructurer la valeur à chaque étape de la chaîne industrielle et inciter davantage de participants. Les caractéristiques de la blockchain, telles que l'immutabilité et la décentralisation, peuvent également permettre certaines applications de l'IA qui nécessitent la confiance.
En résumé, l'économie des tokens favorise la restructuration et la découverte de la valeur, les registres décentralisés résolvent les problèmes de confiance, et la valeur circule à nouveau à l'échelle mondiale.
Aperçu du projet de chaîne de valeur dans l'industrie crypto
( offre de GPU
Des projets représentatifs comme Render. Le marché de la puissance de calcul GPU cloud est non seulement destiné à l'entraînement et à l'inférence des modèles d'IA, mais peut également être utilisé pour des tâches de rendu traditionnelles, réduisant ainsi le risque d'un marché unique.
La demande de puissance de calcul GPU devrait atteindre environ 75 milliards de dollars en 2024, atteignant 773 milliards de dollars en 2032, avec un TCAC de 33,86 %.
Avec l'itération des GPU, de nombreux GPU inutilisés joueront un rôle de valeur à long terme dans un réseau partagé. Cependant, le partage de GPU sur la blockchain présente des problèmes de bande passante de transmission de données.
![Nouvelle compréhension丨AI x Crypto : de zéro à sommet])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) bande passante matérielle
Des projets tels que Meson Network. Cependant, le partage de bande passante peut être une demande illusoire, car la dispersion géographique entraîne des délais supérieurs à ceux du stockage local.
![Nouveau guide丨IA x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
) données
Des projets représentatifs comme EpiK Protocol, Synesis One, Masa, etc. L'avantage des fournisseurs de données Web3 réside dans des canaux de collecte de données plus larges. Les projets dans la direction ZK comme Masa ont de bonnes perspectives.
![Nouvelle introduction丨AI x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-8358c377eb2c07467848b3b46dbf1056.webp(
) ZKML
Utiliser la technologie de cryptographie homomorphe pour réaliser des calculs de confidentialité et des entraînements. Des projets représentatifs comme Axiom, Risc Zero, Ritual, etc.
![Nouveaux utilisateurs Guide丨AI x Crypto : De zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-c8845a5920048e7c821c939e2d8304e7.webp(
) Application AI
Principalement des applications blockchain traditionnelles + capacité de généralisation automatisée. L'agent IA devient une direction importante, des projets représentatifs comme Fetch.AI.
![Nouvelle introduction丨AI x Crypto : de zéro au sommet]###https://img-cdn.gateio.im/webp-social/moments-2ed56db6cae1b0206e8e0daa9b1892fd.webp(
) Chaîne publique AI
Réseaux adaptatifs construits pour des modèles ou agents IA, tels que Tensor, Allora, etc. Basé sur l'économie de token, cela peut réduire considérablement les coûts d'inférence.
![Nouveau Guide丨AI x Crypto : De zéro à l'apogée]###https://img-cdn.gateio.im/webp-social/moments-c733612f35e5a4a21d8d39a0a77f85b8.webp(
Résumé
Bien que la technologie d'apprentissage en profondeur ne soit pas la seule direction de développement de l'IA, elle a déjà des scénarios d'application pratiques. L'économie des jetons peut reconfigurer la valeur de la chaîne industrielle de l'IA, et la technologie blockchain peut résoudre le problème de la confiance.
Bien que la plateforme de partage de GPU puisse réduire les coûts en utilisant la puissance de calcul inutilisée, les problèmes de bande passante limitent son utilisation uniquement à l'entraînement de petits modèles non urgents.
Dans l'ensemble, la combinaison de l'IA et de la crypto présente une utilité réelle, capable de remodeler le système de valeur, de résoudre les problèmes de confiance et de découvrir la valeur résiduelle.
![Nouveau Guide丨AI x Crypto : De zéro au sommet])https://img-cdn.gateio.im/webp-social/moments-b97be5c0fd9efe0b79e2e6fcd4493212.webp###