Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.
Kesempatan Web3 di industri AI terletak pada: memanfaatkan insentif terdistribusi untuk mengkoordinasikan pasokan potensial di ekor panjang------lintas data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI dalam industri Web3 terutama diterapkan pada keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta membantu pengembangan.
Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, sementara AI diharapkan dapat membantu Web3 untuk menjangkau lebih luas.
Pengantar
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat, efek kupu-kupu yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang bidang Web3.
Dengan dukungan konsep AI, pendanaan di pasar crypto meningkat secara signifikan. Menurut statistik, hanya dalam paruh pertama tahun 2024, ada 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 berhasil mendapatkan pendanaan sebesar 100 juta USD pada putaran A.
Pasar sekunder semakin berkembang, data dari situs agregator kripto menunjukkan, dalam waktu lebih dari satu tahun, total nilai pasar jalur AI telah mencapai 48,5 miliar USD, dengan volume perdagangan 24 jam mendekati 8,6 miliar USD; kemajuan teknologi AI mainstream memberikan keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga mempengaruhi salah satu segmen pengumpul dana kripto, Meme: MemeCoin pertama dengan konsep AI Agent------GOAT dengan cepat menjadi terkenal dan mendapatkan valuasi 1,4 miliar USD, memicu gelombang Meme AI.
Penelitian dan topik mengenai AI+Web3 juga sangat panas, mulai dari AI+Depin hingga AI Memecoin, dan kini AI Agent dan AI DAO, perasaan FOMO sudah tidak dapat mengikuti kecepatan pergantian narasi baru.
AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan ini, tak terhindarkan dianggap sebagai pernikahan yang diatur oleh modal. Kita sepertinya sulit untuk membedakan di balik penampilan megah ini, apakah ini adalah arena para spekulan, atau malam menjelang ledakan fajar?
Untuk menjawab pertanyaan ini, salah satu pemikiran kunci adalah, apakah ada manfaat dari pihak lain? Apakah kita bisa mendapatkan manfaat dari pola pihak lain? Dalam artikel ini, kami mencoba untuk memeriksa pola ini: bagaimana Web3 dapat berperan di berbagai lapisan tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk memberikan hidup baru bagi Web3?
Bagian.1 Peluang apa yang ada di Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Jelaskan seluruh proses dengan bahasa yang sederhana: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, perlu mengamati dan menyerap sejumlah besar informasi dari luar untuk memahami dunia, ini adalah tahap "pengumpulan" data; karena komputer tidak memiliki banyak indera manusia, sebelum pelatihan, informasi besar yang tidak diberi label dari luar perlu diubah melalui "pra-pemrosesan" menjadi format yang dapat dipahami dan digunakan oleh komputer.
Setelah data dimasukkan, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model ini seperti kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika isi pembelajaran mulai dibedakan menjadi disiplin ilmu, atau ketika berkomunikasi dengan orang lain dan mendapatkan umpan balik serta perbaikan, maka masuk ke tahap "penyesuaian halus" dari model besar.
Setelah anak-anak tumbuh besar dan mulai berbicara, mereka dapat memahami makna dan mengekspresikan perasaan serta pemikiran mereka dalam percakapan baru. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan masalah melalui kemampuan berbahasa, yang juga mirip dengan bagaimana model AI besar digunakan dalam tahap penalaran setelah dilatih dan diterapkan pada berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent lebih dekat dengan bentuk berikutnya dari model besar------dapat melakukan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 telah membentuk ekosistem yang saling terhubung dan berlapis-lapis, mencakup setiap tahap proses model AI.
Satu, Lapisan Dasar: Kekuatan Komputasi dan Data Airbnb
Kekuatan Komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan model inferensi.
Meta's LLAMA3 membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB dari yang terakhir berkisar antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk pelepasan kekuatan komputasi AI, ini juga merupakan bidang pertama Web3 yang bersinggungan dengan AI ------ DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah mencantumkan lebih dari 1400 proyek, di mana proyek perwakilan berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lainnya.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi secara terdesentralisasi tanpa izin, melalui pasar online yang mirip dengan Uber atau Airbnb untuk pembeli dan penjual, meningkatkan penggunaan sumber daya GPU yang tidak terpakai secara efektif, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan sanksi yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia utama adalah pusat data independen kecil dan menengah pihak ketiga, sumber daya daya komputasi yang berlebih dari operator ladang tambang cryptocurrency, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. Pasar kekuatan terdesentralisasi di "ujung teknologi" lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki persyaratan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. Pihak permintaan dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan model besar utama yang sedikit, dan skenario-skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Kepemilikan terdesentralisasi: Arti teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya, dapat disesuaikan secara fleksibel sesuai kebutuhan, sambil mendapatkan keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti ilalang yang tidak ada gunanya, dan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan ekspresi kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kekurangan data: Pelatihan model AI bergantung pada input data yang sangat besar. Data publik menunjukkan bahwa OpenAI melatih parameter GPT-4 mencapai tingkat triliunan.
Kualitas data: Seiring dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keberagaman, profesionalisme data vertikal, dan pengambilan sumber data baru seperti emosi media sosial juga menuntut kualitas yang baru.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Pengumpulan data: Data dunia nyata yang disediakan secara gratis sedang cepat habis, pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pengeluaran ini tidak kembali kepada kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti Reddit yang menghasilkan total pendapatan $203 juta melalui perjanjian lisensi data dengan perusahaan AI.
Visi Web3 adalah memungkinkan pengguna yang benar-benar berkontribusi untuk terlibat dalam penciptaan nilai yang dihasilkan oleh data, dan untuk mendapatkan data yang lebih pribadi dan lebih berharga dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif.
Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.
Pra-pemrosesan data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas standar, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit tahap manual dalam industri AI, yang telah melahirkan industri penandaan data. Seiring dengan meningkatnya tuntutan kualitas data dari model, ambang batas untuk menjadi penanda data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan penandaan data sebagai langkah kunci.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data yang telah diberi label, komentar, atau bentuk input lainnya.
Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: Yang perlu diperjelas adalah bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sementara keamanan data melindungi informasi dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi aplikasi terlihat dalam dua aspek: (1) Pelatihan data sensitif; (2) Kolaborasi data: Beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu membagikan data mentah.
Teknologi privasi yang umum digunakan saat ini di Web3 termasuk:
Lingkungan Eksekusi Terpercaya ( TEE ), seperti Super Protocol;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam tahap eksplorasi, dan salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, misalnya:
Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan komputasi murni.
Penyimpanan data: Setelah memiliki data, perlu ada tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan menggunakan data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding Ethereum, throughput-nya adalah 0,08MB. Sementara pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Perbedaan skala ini membuat solusi blockchain yang ada tidak dapat memenuhi "aplikasi AI yang membutuhkan sumber daya intensif."
0g.AI adalah proyek perwakilan dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan kinerja tinggi AI, dengan fitur kunci termasuk: kinerja tinggi dan skalabilitas, mendukung unggahan dan unduhan dataset besar dengan cepat melalui teknologi sharding canggih dan pengkodean penghapusan, kecepatan transfer data mendekati 5GB per detik.
Dua, Middleware: Pelatihan dan Inferensi Model
Pasar terdesentralisasi model sumber terbuka
Perdebatan tentang apakah model AI harus bersifat tertutup atau terbuka tidak pernah hilang. Inovasi kolektif yang dibawa oleh model sumber terbuka tidak dapat dibandingkan dengan model tertutup.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 Suka
Hadiah
9
4
Bagikan
Komentar
0/400
MEVVictimAlliance
· 07-09 19:31
Sekali lagi, hanya saja perusahaan besar memainkan orang untuk dianggap bodoh.
Lihat AsliBalas0
BlockchainFoodie
· 07-07 08:28
menyajikan beberapa alpha web3 seperti koki defi bintang michelin... kombinasi ai+web3 ini tampak seperti resep sempurna, jujur saja
Lihat AsliBalas0
PaperHandsCriminal
· 07-07 08:26
Dianggap Bodoh lagi. Lihat apa pun yang naik, salin.
Analisis Pola AI+Web3: Peluang dan Tantangan dari Infrastruktur hingga Model Bisnis
AI+Web3: Menara dan Lapangan
TL;DR
Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.
Kesempatan Web3 di industri AI terletak pada: memanfaatkan insentif terdistribusi untuk mengkoordinasikan pasokan potensial di ekor panjang------lintas data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI dalam industri Web3 terutama diterapkan pada keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta membantu pengembangan.
Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, sementara AI diharapkan dapat membantu Web3 untuk menjangkau lebih luas.
Pengantar
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat, efek kupu-kupu yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang bidang Web3.
Dengan dukungan konsep AI, pendanaan di pasar crypto meningkat secara signifikan. Menurut statistik, hanya dalam paruh pertama tahun 2024, ada 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 berhasil mendapatkan pendanaan sebesar 100 juta USD pada putaran A.
Pasar sekunder semakin berkembang, data dari situs agregator kripto menunjukkan, dalam waktu lebih dari satu tahun, total nilai pasar jalur AI telah mencapai 48,5 miliar USD, dengan volume perdagangan 24 jam mendekati 8,6 miliar USD; kemajuan teknologi AI mainstream memberikan keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga mempengaruhi salah satu segmen pengumpul dana kripto, Meme: MemeCoin pertama dengan konsep AI Agent------GOAT dengan cepat menjadi terkenal dan mendapatkan valuasi 1,4 miliar USD, memicu gelombang Meme AI.
Penelitian dan topik mengenai AI+Web3 juga sangat panas, mulai dari AI+Depin hingga AI Memecoin, dan kini AI Agent dan AI DAO, perasaan FOMO sudah tidak dapat mengikuti kecepatan pergantian narasi baru.
AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan ini, tak terhindarkan dianggap sebagai pernikahan yang diatur oleh modal. Kita sepertinya sulit untuk membedakan di balik penampilan megah ini, apakah ini adalah arena para spekulan, atau malam menjelang ledakan fajar?
Untuk menjawab pertanyaan ini, salah satu pemikiran kunci adalah, apakah ada manfaat dari pihak lain? Apakah kita bisa mendapatkan manfaat dari pola pihak lain? Dalam artikel ini, kami mencoba untuk memeriksa pola ini: bagaimana Web3 dapat berperan di berbagai lapisan tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk memberikan hidup baru bagi Web3?
Bagian.1 Peluang apa yang ada di Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Jelaskan seluruh proses dengan bahasa yang sederhana: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, perlu mengamati dan menyerap sejumlah besar informasi dari luar untuk memahami dunia, ini adalah tahap "pengumpulan" data; karena komputer tidak memiliki banyak indera manusia, sebelum pelatihan, informasi besar yang tidak diberi label dari luar perlu diubah melalui "pra-pemrosesan" menjadi format yang dapat dipahami dan digunakan oleh komputer.
Setelah data dimasukkan, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model ini seperti kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika isi pembelajaran mulai dibedakan menjadi disiplin ilmu, atau ketika berkomunikasi dengan orang lain dan mendapatkan umpan balik serta perbaikan, maka masuk ke tahap "penyesuaian halus" dari model besar.
Setelah anak-anak tumbuh besar dan mulai berbicara, mereka dapat memahami makna dan mengekspresikan perasaan serta pemikiran mereka dalam percakapan baru. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan masalah melalui kemampuan berbahasa, yang juga mirip dengan bagaimana model AI besar digunakan dalam tahap penalaran setelah dilatih dan diterapkan pada berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent lebih dekat dengan bentuk berikutnya dari model besar------dapat melakukan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 telah membentuk ekosistem yang saling terhubung dan berlapis-lapis, mencakup setiap tahap proses model AI.
Satu, Lapisan Dasar: Kekuatan Komputasi dan Data Airbnb
Kekuatan Komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan model inferensi.
Meta's LLAMA3 membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB dari yang terakhir berkisar antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk pelepasan kekuatan komputasi AI, ini juga merupakan bidang pertama Web3 yang bersinggungan dengan AI ------ DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah mencantumkan lebih dari 1400 proyek, di mana proyek perwakilan berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lainnya.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi secara terdesentralisasi tanpa izin, melalui pasar online yang mirip dengan Uber atau Airbnb untuk pembeli dan penjual, meningkatkan penggunaan sumber daya GPU yang tidak terpakai secara efektif, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan sanksi yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia utama adalah pusat data independen kecil dan menengah pihak ketiga, sumber daya daya komputasi yang berlebih dari operator ladang tambang cryptocurrency, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. Pasar kekuatan terdesentralisasi di "ujung teknologi" lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki persyaratan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. Pihak permintaan dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan model besar utama yang sedikit, dan skenario-skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti ilalang yang tidak ada gunanya, dan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan ekspresi kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kekurangan data: Pelatihan model AI bergantung pada input data yang sangat besar. Data publik menunjukkan bahwa OpenAI melatih parameter GPT-4 mencapai tingkat triliunan.
Kualitas data: Seiring dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keberagaman, profesionalisme data vertikal, dan pengambilan sumber data baru seperti emosi media sosial juga menuntut kualitas yang baru.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Visi Web3 adalah memungkinkan pengguna yang benar-benar berkontribusi untuk terlibat dalam penciptaan nilai yang dihasilkan oleh data, dan untuk mendapatkan data yang lebih pribadi dan lebih berharga dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif.
Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan penandaan data sebagai langkah kunci.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data yang telah diberi label, komentar, atau bentuk input lainnya.
Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi yang umum digunakan saat ini di Web3 termasuk:
Lingkungan Eksekusi Terpercaya ( TEE ), seperti Super Protocol;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam tahap eksplorasi, dan salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, misalnya:
Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan komputasi murni.
Dua, Middleware: Pelatihan dan Inferensi Model
Pasar terdesentralisasi model sumber terbuka
Perdebatan tentang apakah model AI harus bersifat tertutup atau terbuka tidak pernah hilang. Inovasi kolektif yang dibawa oleh model sumber terbuka tidak dapat dibandingkan dengan model tertutup.