AI và DePIN kết hợp: Mạng GPU phi tập trung dẫn đầu xu hướng khả năng tính toán mới

Sự giao thoa giữa AI và DePIN: Sự trỗi dậy của mạng GPU phi tập trung

Kể từ năm 2023, AI và DePIN đã trở thành những xu hướng nổi bật trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa của cả hai, nghiên cứu sự phát triển của các giao thức trong lĩnh vực này.

Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tính hữu dụng cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác khó có đủ GPU để tính toán. DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, sử dụng phần thưởng token để khuyến khích sự đóng góp tài nguyên phù hợp với mục tiêu của mạng.

AI DePIN sẽ phân phối tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, tạo ra một nguồn cung thống nhất cho những người dùng cần truy cập phần cứng. Điều này không chỉ cung cấp cho các nhà phát triển tính tùy chỉnh và truy cập theo nhu cầu, mà còn mang lại thu nhập bổ sung cho các chủ sở hữu GPU.

AI và điểm giao thoa của DePIN

Tổng quan về mạng DePIN AI

Render

Render là một mạng P2P tiên phong cung cấp khả năng tính toán GPU, tập trung vào việc tạo ra hình ảnh cho nội dung sáng tạo, sau đó mở rộng bao gồm các nhiệm vụ tính toán từ trường phản xạ thần kinh đến AI sinh tạo.

Điểm nổi bật:

  • Được thành lập bởi công ty đồ họa đám mây OTOY với công nghệ đoạt giải Oscar
  • Mạng GPU đã được các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG sử dụng.
  • Hợp tác với Stability AI và Endeavor, tích hợp mô hình AI với quy trình làm việc render nội dung 3D
  • Phê duyệt nhiều máy khách tính toán, tích hợp nhiều GPU của mạng DePIN hơn.

Akash

Akash được định vị là một "siêu đám mây" thay thế hỗ trợ lưu trữ, tính toán GPU và CPU. Sử dụng nền tảng container và các nút tính toán được quản lý bởi Kubernetes, có thể triển khai phần mềm một cách liền mạch qua các môi trường, chạy bất kỳ ứng dụng gốc đám mây nào.

Điểm nổi bật:

  • Đối với các tác vụ tính toán rộng rãi từ tính toán chung đến lưu trữ mạng
  • AkashML cho phép chạy hơn 15,000 mô hình trên Hugging Face
  • Đã quản lý các ứng dụng như chatbot mô hình LLM của Mistral AI, mô hình SDXL của Stability AI, v.v.
  • Nền tảng xây dựng vũ trụ ảo, triển khai AI và học liên bang đang tận dụng Supercloud

io.net

io.net cung cấp quyền truy cập vào cụm GPU đám mây phân tán, chuyên dùng cho các trường hợp sử dụng AI và ML. Nó tập hợp các tài nguyên GPU từ các trung tâm dữ liệu, thợ mỏ tiền điện tử và các mạng Phi tập trung khác.

Điểm nổi bật:

  • IO-SDK tương thích với các framework như PyTorch và Tensorflow, kiến trúc đa lớp có thể tự động mở rộng theo nhu cầu tính toán.
  • Hỗ trợ tạo 3 loại cụm khác nhau, có thể khởi động trong vòng 2 phút
  • Hợp tác tích hợp tài nguyên GPU với Render, Filecoin, Aethir và Exabits

Gensyn

Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố đã đạt được cơ chế xác minh hiệu quả hơn thông qua các khái niệm như bằng chứng học, giao thức định vị chính xác dựa trên đồ thị và các trò chơi khuyến khích liên quan đến nhà cung cấp tính toán thông qua việc đặt cọc và cắt giảm.

Điểm nổi bật:

  • Dự kiến chi phí mỗi giờ cho GPU tương đương V100 khoảng 0,40 đô la, tiết kiệm chi phí đáng kể
  • Có thể tinh chỉnh mô hình cơ bản đã được đào tạo trước, hoàn thành các nhiệm vụ cụ thể hơn
  • Những mô hình cơ bản này sẽ mang tính phi tập trung, thuộc sở hữu toàn cầu, cung cấp các chức năng bổ sung.

Aethir

Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu, chủ yếu là AI, học máy, game trên đám mây, v.v. Các container trong mạng của nó đóng vai trò là điểm cuối ảo để thực thi các ứng dụng dựa trên đám mây, chuyển tải khối lượng công việc từ thiết bị cục bộ sang container, mang lại trải nghiệm độ trễ thấp.

Điểm nổi bật:

  • Mở rộng dịch vụ điện thoại đám mây, hợp tác với APHONE ra mắt điện thoại thông minh đám mây Phi tập trung
  • Thiết lập hợp tác rộng rãi với các công ty Web2 lớn như NVIDIA, Super Micro, HPE
  • Tại lĩnh vực Web3 với nhiều đối tác như CARV, Magic Eden, Sequence

Mạng lưới Phala

Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Blockchain của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để xử lý các vấn đề về quyền riêng tư thông qua việc sử dụng môi trường thực thi tin cậy (TEE).

Điểm nổi bật:

  • Đóng vai trò là giao thức đồng xử lý có thể xác minh, cho phép các đại lý AI sử dụng tài nguyên trên chuỗi.
  • Hợp đồng đại lý AI có thể nhận được các mô hình ngôn ngữ lớn hàng đầu như OpenAI, Llama thông qua Redpill.
  • Tương lai sẽ bao gồm zk-proofs, tính toán đa bên, hệ thống chứng minh đồng nhất hoàn toàn.
  • Kế hoạch hỗ trợ H100 và các GPU TEE khác, nâng cao khả năng tính toán

AI và DePIN của giao điểm

So sánh dự án

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Trọng tâm kinh doanh | Render đồ họa và AI | Điện toán đám mây, render và AI | AI | AI | Trí tuệ nhân tạo, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Cả hai | Cả hai | Đào tạo | Đào tạo | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Chuỗi khối | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Dữ liệu riêng tư | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% Chi phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tương ứng với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Hoàn thành chứng minh | - | - | Chứng minh khóa thời gian | Chứng minh học tập | Chứng minh công việc render | Chứng minh TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người tố cáo | Node kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |

AI và sự giao thoa của DePIN

Tầm quan trọng

Tính khả dụng của cụm và tính toán song song

Khung tính toán phân tán đã triển khai cụm GPU, cung cấp việc huấn luyện hiệu quả hơn, đồng thời tăng cường khả năng mở rộng. Việc huấn luyện các mô hình AI phức tạp cần có khả năng tính toán mạnh mẽ, thường phải dựa vào tính toán phân tán để đáp ứng nhu cầu. Ví dụ, mô hình GPT-4 của OpenAI có hơn 1.8 ngàn tỷ tham số, được huấn luyện trong 3-4 tháng bằng khoảng 25,000 GPU Nvidia A100 trong 128 cụm.

Hầu hết các dự án trọng điểm hiện nay đã tích hợp cụm để thực hiện tính toán song song. io.net hợp tác với các dự án khác để đưa thêm nhiều GPU vào mạng lưới của mình và đã triển khai hơn 3.800 cụm trong quý 1 năm 24. Render tuy không hỗ trợ cụm, nhưng hoạt động tương tự, phân chia một khung hình thành nhiều nút để xử lý đồng thời. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.

Dữ liệu riêng tư

Việc phát triển mô hình AI cần sử dụng một lượng lớn bộ dữ liệu, các bộ dữ liệu này có thể chứa thông tin nhạy cảm. Do đó, việc thực hiện các biện pháp an ninh đủ để bảo vệ quyền riêng tư của dữ liệu là vô cùng quan trọng.

Hầu hết các dự án đều sử dụng một dạng mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư của dữ liệu. Render sử dụng mã hóa và xử lý băm khi phát hành kết quả kết xuất, io.net và Gensyn áp dụng mã hóa dữ liệu, Akash sử dụng xác thực mTLS.

io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa đồng nhất hoàn toàn (FHE), cho phép xử lý dữ liệu mã hóa mà không cần giải mã trước. Phala Network đã giới thiệu môi trường thực thi đáng tin cậy (TEE), ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu thông qua cơ chế cách ly.

Chứng nhận hoàn thành tính toán và kiểm tra chất lượng

Do dịch vụ đa dạng, từ việc kết xuất đồ họa đến tính toán AI, chất lượng cuối cùng có thể không nhất thiết phải đáp ứng tiêu chuẩn của người dùng. Việc hoàn thiện chứng nhận và kiểm tra chất lượng là có lợi cho người dùng.

Gensyn và Aethir tạo ra chứng nhận sau khi tính toán hoàn tất, chứng nhận của io.net cho thấy hiệu suất GPU được thuê được sử dụng đầy đủ. Gensyn và Aethir đều sẽ tiến hành kiểm tra chất lượng đối với các tính toán đã hoàn thành. Render khuyên nên sử dụng quy trình giải quyết tranh chấp, nếu hội đồng đánh giá phát hiện ra vấn đề với nút thì sẽ giảm bớt nút đó. Phala sẽ tạo ra chứng nhận TEE sau khi hoàn thành, đảm bảo rằng đại lý AI thực hiện các thao tác cần thiết trên chuỗi.

AI và điểm giao thoa của DePIN

Dữ liệu thống kê phần cứng

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ( dự kiến ) | $0.33 ( dự kiến ) | - |

Yêu cầu về GPU hiệu suất cao

Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, chẳng hạn như A100 và H100 của Nvidia. Hiệu suất suy diễn của H100 nhanh hơn A100 gấp 4 lần, đã trở thành GPU được ưa chuộng, đặc biệt là đối với các công ty lớn đang đào tạo LLM của riêng họ.

Các nhà cung cấp thị trường GPU phi tập trung phải cạnh tranh với các đồng nghiệp Web2, không chỉ cần cung cấp giá thấp hơn mà còn phải đáp ứng nhu cầu thực tế của thị trường. Xem xét khó khăn trong việc có được phần cứng tương đương, số lượng phần cứng mà các dự án có thể đưa vào mạng với chi phí thấp là rất quan trọng cho việc mở rộng dịch vụ.

Akash tổng cộng chỉ có hơn 150 H100 và A100, trong khi io.net và Aethir lần lượt nhận được hơn 2000 đơn vị. Thông thường, việc tiền huấn luyện LLM hoặc mô hình sinh ra từ đầu cần ít nhất 248 đến hơn 2000 GPU trong cụm, vì vậy hai dự án sau phù hợp hơn cho tính toán mô hình lớn.

Hiện tại, chi phí của các dịch vụ GPU Phi tập trung trên thị trường đã thấp hơn nhiều so với dịch vụ GPU tập trung. Gensyn và Aethir đều tuyên bố có thể cho thuê phần cứng tương đương A100 với giá dưới 1 đô la mỗi giờ, nhưng điều này vẫn cần được chứng minh theo thời gian.

Cụm GPU kết nối mạng sở hữu một lượng lớn GPU, chi phí mỗi giờ thấp hơn, nhưng bộ nhớ của chúng bị giới hạn so với GPU kết nối NVLink. NVLink hỗ trợ giao tiếp trực tiếp giữa nhiều GPU mà không cần truyền dữ liệu giữa CPU và GPU, đạt được băng thông cao và độ trễ thấp.

Mặc dù vậy, đối với những người dùng có nhu cầu tải công việc động hoặc cần khả năng linh hoạt và phân phối tải công việc qua nhiều nút, mạng GPU phi tập trung vẫn có thể cung cấp sức mạnh tính toán và khả năng mở rộng mạnh mẽ cho các nhiệm vụ tính toán phân tán.

AI và điểm giao thoa của DePIN

Cung cấp GPU/CPU tiêu dùng

Mặc dù GPU là đơn vị xử lý chính cần thiết cho việc rendering và tính toán, CPU cũng đóng vai trò quan trọng trong việc huấn luyện các mô hình AI. GPU tiêu dùng cũng có thể được sử dụng cho các tác vụ không quá nặng, chẳng hạn như tinh chỉnh các mô hình đã được huấn luyện trước hoặc huấn luyện các mô hình quy mô nhỏ hơn trên các tập dữ liệu nhỏ hơn.

Xem xét rằng hơn 85% tài nguyên GPU của người tiêu dùng đang ở trạng thái nhàn rỗi, các dự án như Render, Akash và io.net cũng có thể phục vụ cho phần thị trường này. Việc cung cấp những lựa chọn này có thể cho phép họ phát triển thị trường ngách của riêng mình, tập trung vào tính toán cường độ lớn quy mô lớn, render quy mô nhỏ tổng quát hơn hoặc sự pha trộn giữa cả hai.

AI và sự giao thoa của DePIN

Kết luận

Lĩnh vực AI DePIN vẫn còn tương đối mới và đang đối mặt với những thách thức riêng. Tuy nhiên, số lượng các nhiệm vụ và phần cứng được thực hiện trong các mạng GPU phi tập trung này vẫn đang gia tăng đáng kể. Xu hướng này chứng minh sự phù hợp của sản phẩm trong thị trường của các mạng AI DePIN, khi chúng hiệu quả giải quyết các thách thức về cung và cầu.

Nhìn về tương lai, quỹ đạo phát triển của trí tuệ nhân tạo chỉ vào một thị trường hàng triệu tỷ đô la phát triển mạnh mẽ. Những mạng GPU phi tập trung này sẽ cung cấp giá cả hợp lý cho các nhà phát triển.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 4
  • Chia sẻ
Bình luận
0/400
retroactive_airdropvip
· 07-30 09:01
bull mạng thẻ vẫn có thể đào
Xem bản gốcTrả lời0
0xSoullessvip
· 07-30 08:58
đồ ngốc lại có nơi mới để chơi đùa với mọi người
Xem bản gốcTrả lời0
Fren_Not_Foodvip
· 07-30 08:43
Khác tôi không biết, chỉ hỏi máy khai thác GPU có thể mua đáy không?
Xem bản gốcTrả lời0
NeverPresentvip
· 07-30 08:37
Ai đi cắt lông cừu N-card vậy?
Xem bản gốcTrả lời0
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)