AI+Web3の構造分析:インフラからビジネスモデルへの機会と課題

AI+Web3: タワーとプラザ

TL; 博士

  1. AI概念のWeb3プロジェクトが一級市場と二級市場で資金を集めるターゲットとなっている。

  2. Web3がAI業界において提供する機会は、分散型インセンティブを利用してロングテールの潜在的供給を調整することにあります------データ、ストレージ、計算を超えて;同時に、オープンソースモデルおよびAIエージェントの分散型マーケットを構築することです。

  3. AIはWeb3業界で主にオンチェーン金融(暗号支払い、取引、データ分析)や開発支援に利用されています。

  4. AI+Web3の有用性は、両者の補完性にあります:Web3はAIの集中化に対抗することが期待され、AIはWeb3の境界を超えるのを助けることが期待されています。

! AI+Web3: タワー&プラザ

はじめに

ここ2年、AIの発展はまるで加速ボタンが押されたかのようです。このChatgptによって引き起こされたバタフライ効果は、生成的人工知能の新しい世界を開いただけでなく、Web3分野でも大きな波を引き起こしました。

AIの概念の後押しを受けて、暗号市場の資金調達が明らかに活発化しています。統計によれば、2024年上半期には64のWeb3+AIプロジェクトが資金調達を完了し、その中で人工知能に基づくオペレーティングシステムZyber365はAラウンドで1億ドルの資金調達を受けました。

二次市場はさらに繁栄しており、暗号集約サイトのデータによれば、わずか1年余りの間に、AI分野の総市場価値は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による好影響は明らかであり、OpenAIのSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AI効果は暗号通貨の資金吸引セクターの一つであるMemeにも広がっています:最初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価を得て、AI Memeブームを巻き起こしました。

AI+Web3に関する研究や話題も同様に盛り上がっており、AI+DepinからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しい物語の切り替えの速度についていけなくなっています。

AI+Web3、この熱い資金、ブーム、そして未来の幻想に満ちた用語の組み合わせは、資本の仲介による結婚として見なされるのは避けられず、私たちはこの華やかな外見の下で、果たして投機家の主場なのか、それとも夜明けの爆発の前夜なのかを見分けることが難しいようです。

この質問に答えるための重要な考えは、相手が存在することでより良くなるのか?相手のパターンから利益を得ることができるのか?この記事では、このパターンを検討しようとしています:Web3がAI技術スタックの各段階でどのように機能し、AIがWeb3にどのような新しい活力をもたらすのか?

パート1 AIスタック下のWeb3にはどのような機会があるか?

このトピックを展開する前に、AI大モデルの技術スタックを理解する必要があります:

平易な言葉で全体のプロセスを説明します。「大モデル」は人間の脳のようなもので、初期段階ではこの脳は生まれたばかりの赤ちゃんに属します。この赤ちゃんは世界を理解するために膨大な外部情報を観察し、取り入れる必要があります。これがデータの「収集」段階です。コンピュータは人間の多感覚を持っていないため、トレーニングの前に、外部の大規模な無標識情報は「前処理」を通じてコンピュータが理解し使用できる形式に変換する必要があります。

データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を徐々に理解し学ぶプロセスと考えることができます。モデルのパラメータは、赤ちゃんの学習プロセスで絶えず調整される言語能力のようなものです。学習内容が専門分野に分かれたり、人と交流してフィードバックを得て修正されたりすると、大規模モデルの「ファインチューニング」段階に入ります。

子供が成長して話せるようになると、新しい対話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測と分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、問題を解決します。これは、AI大モデルがトレーニングを完了し使用に投入された後、推論段階で画像分類や音声認識などの特定のタスクに応用されることにも似ています。

AIエージェントは、次の大規模モデルの形態に近づいています------独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を備え、記憶し、計画し、ツールを使って世界と相互作用することができます。

現在、AIの各スタックの痛点に対応するために、Web3はAIモデルプロセスの各段階をカバーする多層で相互接続されたエコシステムを初めて形成しました。

! AI+Web3:タワー&スクエア

一、基礎レイヤー:算力とデータのAirbnb

ハッシュレート

現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。

MetaのLLAMA3は、NVIDIAが製造したH100GPUを16000個必要とし(これはAIおよび高性能計算ワークロード専用に設計された最高のグラフィックスプロセッサユニットです)、トレーニングには30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間であり、計算ハードウェア投資(GPU+ネットワークチップ)には4億から7億ドルが必要です。また、毎月のトレーニングには16億キロワット時を消費し、エネルギー支出は毎月約2000万ドルです。

AIの計算能力の解放は、Web3がAIと交差する最初の分野でもあります------DePin(分散型物理インフラストラクチャネットワーク)。現在、DePin Ninjaのデータサイトには1400以上のプロジェクトがリストされています。その中で、GPU計算能力の共有を代表するプロジェクトにはio.net、Aethir、Akash、Render Networkなどがあります。

その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や実体が許可なしに分散型の方法で計算能力を提供できるようにすることであり、UberやAirbnbのような売買双方のオンライン市場を通じて未利用のGPUリソースの使用率を向上させ、最終ユーザーもその結果、より低コストで効率的な計算リソースを得られるということです。また、ステーキングメカニズムにより、品質管理メカニズムに違反したりネットワークが中断された場合、リソース提供者は相応の罰を受けることが保証されています。

その特徴は次のとおりです:

  • 余剰GPUリソースを集める:供給者は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターによる過剰な計算力リソース、合意メカニズムはPoSのマイニングハードウェアであり、FileCoinやETHマイナーなどがあります。現在、exolabがMacBook、iPhone、iPadなどのローカルデバイスを利用して大規模モデル推論の計算ネットワークを構築するような、より低い参入障壁のデバイスを起動するプロジェクトもあります。

  • AI計算力のロングテール市場に直面する:

a.「技術端」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは超大規模クラスターのGPUによるデータ処理能力に依存しますが、推論はGPU計算性能に対する要求が相対的に低く、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。

b.「需要側」の中小計算力需要者は、自分の大規模モデルを単独でトレーニングすることはなく、少数の主要な大規模モデルを中心に最適化や微調整を行うことを選択します。これらのシーンは、分散された遊休計算力資源に自然に適しています。

  • 分散型所有権:ブロックチェーンの技術的意義は、リソースの所有者が常にリソースに対するコントロールを保持し、需要に応じて柔軟に調整できると同時に利益を得ることができることです。

データ

データはAIの基盤です。データがなければ、計算は浮草のように無用であり、データとモデルの関係は「Garbage in, Garbage out」ということわざのようです。データの量と入力の質は、最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間らしい表現を決定します。現在、AIのデータ需要の課題は主に以下の四つの側面に集中しています:

  • データ飢餓:AIモデルのトレーニングは膨大なデータ入力に依存しています。公開された資料によると、OpenAIはGPT-4のトレーニングにおいてパラメータの数が兆単位に達しています。

  • データ品質:AIと各業界の融合が進む中で、データのタイムリーさ、多様性、特定分野のデータの専門性、ソーシャルメディアの感情などの新興データソースの取り込みが、その品質に新たな要求を突きつけています。

  • プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性を徐々に認識しており、データセットのクローリングに制限をかけています。

  • データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基本データの収集と処理に使われています。

現在、web3のソリューションは以下の4つの側面に現れています:

1、データ収集:無料で提供されるリアルワールドデータの収集が急速に枯渇しており、AI企業のデータへの支出は年々増加しています。しかし、この支出はデータの本当の貢献者に還元されておらず、プラットフォームは全くデータによって生み出される価値を享受しています。たとえば、RedditはAI企業とのデータライセンス契約を締結することで合計2億3000万ドルの収入を得ています。

Web3のビジョンは、真に貢献するユーザーがデータによる価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートでより価値のあるデータを取得できることです。

  • Grassは、ユーザーがGrassノードを実行することで、余剰帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチしてトークン報酬を得ることができる分散型データレイヤーおよびネットワークです。

  • Vanaは独自のデータ流動性プール(DLP)コンセプトを導入し、ユーザーはプライベートデータ(購入履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます;

  • PublicAIでは、ユーザーはX上で#AI或#Web3をカテゴリタグとして使用し、@PublicAIすることでデータ収集を実現できます。

2、データ前処理:AIデータ処理の過程では、収集されたデータが通常ノイズが多く、エラーを含むため、モデルをトレーニングする前にそれをクリーンアップし、使用可能な形式に変換する必要があります。これには、標準化、フィルタリング、欠損値の処理という繰り返しの作業が含まれます。この段階はAI業界で数少ない人間の作業が行われる部分であり、データアノテーターという職業が生まれました。モデルがデータ品質に対する要求を高めるにつれて、データアノテーターのハードルも上がり、この作業はWeb3の分散型インセンティブメカニズムに自然に適しています。

  • 現在、GrassとOpenLayerはデータ注釈という重要な段階を追加することを検討しています。

  • Synesisは「Train2earn」コンセプトを提唱し、データの質を強調しています。ユーザーは、ラベル付きデータ、注釈、またはその他の形式の入力を提供することによって報酬を得ることができます。

  • データラベリングプロジェクトSapienは、ラベリングタスクをゲーミフィケーションし、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。

3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは二つの異なる概念であるということです。データプライバシーは敏感なデータの取り扱いに関わり、データセキュリティはデータ情報を無許可のアクセス、破壊、盗難から守ることです。したがって、Web3プライバシー技術の利点と潜在的な応用シナリオは二つの側面に現れます:(1)敏感データのトレーニング;(2)データコラボレーション:複数のデータ所有者が原データを共有することなくAIトレーニングに共同で参加できます。

現在のWeb3で一般的なプライバシー技術には、

  • Trusted Execution Environment (TEE) (例: Super Protocol);

  • BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。

  • ゼロ知識技術(zk)、例えばReclaim ProtocolはzkTLS技術を使用して、HTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから活動、評判、そしてアイデンティティデータを安全にインポートできるようにしますが、敏感な情報を露出する必要はありません。

しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の課題の一つは、計算コストが高すぎることです。例えば:

  • zkMLフレームワークEZKLは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。

  • Modulus Labsのデータによると、zkMLのオーバーヘッドは純粋な計算よりも1000倍以上高い。

4、データストレージ:データが得られた後は、チェーン上にデータを保存するための場所と、そのデータを使用して生成されるLLMが必要です。データの可用性(DA)を中心に、イーサリアムのダンクシャーディングアップグレード前のスループットは0.08MBでした。一方、AIモデルのトレーニングとリアルタイム推論には通常毎秒50から100GBのデータスループットが必要です。この数量の差は、既存のチェーン上のソリューションが「リソース集約型AIアプリケーション」に直面する際に無力であることを示しています。

  • 0g.AIはこのカテゴリの代表的なプロジェクトです。これはAIの高性能ニーズに対応するために設計された中央集権型ストレージソリューションで、主な特徴には以下が含まれます:高パフォーマンスとスケーラビリティ、高度なシャーディング(Sharding)とエラージャーコーディング(Erasure Coding)技術を通じて、大規模データセットの迅速なアップロードとダウンロードをサポートし、データ転送速度は毎秒約5GBに達します。

二、ミドルウェア:モデルのトレーニングと推論

オープンソースモデルの分散型市場

AIモデルのクローズドソースとオープンソースに関する議論は決して消えません。オープンソースがもたらす集団的なイノベーションは、クローズドモデルには比類のないものです。

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 3
  • 共有
コメント
0/400
BlockchainFoodievip
· 07-07 08:28
ミシュラン星付きのDeFiシェフのように、Web3のアルファを提供している...このAI+Web3の組み合わせは、正直完璧なレシピに見える
原文表示返信0
PaperHandsCriminalvip
· 07-07 08:26
またカモにされました 何が上昇しているかを見てはそれをコピーします
原文表示返信0
GateUser-00be86fcvip
· 07-07 08:23
コンセプトを炒めることにはまだ可能性がある。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)