Proyek Web3 dengan konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.
Peluang Web3 di industri AI terwujud dalam: menggunakan insentif terdistribusi untuk mengoordinasikan potensi pasokan dalam ekor panjang ------ lintas data, penyimpanan, dan komputasi; pada saat yang sama, membangun model sumber terbuka serta pasar terdesentralisasi untuk Agen AI.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) dan pengembangan pendukung.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, sementara AI diharapkan dapat membantu Web3 memperluas jangkauannya.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat, sayap kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang arus di Web3 di sisi lainnya.
Dengan dukungan konsep AI, terlihat jelas peningkatan pembiayaan di pasar kripto yang melambat. Media mencatat, hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pembiayaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS pada putaran A.
Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu hanya lebih dari satu tahun, total kapitalisasi pasar untuk jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI yang utama membawa keuntungan yang jelas, setelah model video dari teks Sora milik suatu perusahaan dirilis, harga rata-rata di sektor AI naik sebesar 151%; efek AI juga mempengaruhi salah satu sektor pengumpulan dana kripto, Meme: Konsep MemeCoin pertama dengan AI Agent ------ GOAT dengan cepat menjadi terkenal dan mencapai valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.
Tentang penelitian dan topik AI+Web3 juga sedang hangat, dari AI+Depin hingga AI Memecoin dan sekarang AI Agent serta AI DAO, perasaan FOMO sudah tidak dapat mengikuti kecepatan perputaran narasi baru.
AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan ini, tidak dapat dihindari dilihat sebagai pernikahan yang diatur oleh modal. Kita tampaknya sangat sulit untuk membedakan di balik jubah megah ini, apakah ini adalah arena para spekulan, atau malam sebelum kebangkitan fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang sangat penting bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuatnya menjadi lebih baik? Apakah ada manfaat yang bisa diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk berdiri di atas bahu para pendahulu untuk mengamati pola ini: Bagaimana Web3 dapat berperan di setiap lapisan tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk memberikan kehidupan baru pada Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model besar AI:
Dengan bahasa yang lebih sederhana, keseluruhan proses dapat dijelaskan sebagai berikut: "Model besar" seperti otak manusia. Pada tahap awal, otak ini adalah milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang melimpah untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi luar yang tidak terlabel secara besar-besaran perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI melalui "pelatihan" membangun model dengan kemampuan pemahaman dan prediksi, yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten yang dipelajari mulai dibagi menjadi disiplin ilmu, atau mendapatkan umpan balik dan perbaikan melalui interaksi dengan orang lain, maka masuk ke tahap "penyesuaian halus" model besar.
Anak-anak yang tumbuh dan belajar berbicara dapat memahami makna dan mengekspresikan perasaan serta pemikiran mereka dalam dialog baru. Tahap ini mirip dengan "penalaran" model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan penerapan model AI besar setelah selesai dilatih dalam fase penalaran untuk berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lainnya.
AI Agent semakin mendekati bentuk berikutnya dari model besar------dapat menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah secara awal membentuk ekosistem multi-lapis yang saling terhubung, mencakup setiap tahap dari proses model AI.
Satu, Lapisan Dasar: Kekuatan Komputasi dan Data Airbnb
▎Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, LLAMA3 dari sebuah perusahaan memerlukan 16.000 H100GPU yang diproduksi oleh perusahaan tersebut (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) untuk menyelesaikan pelatihan dalam waktu 30 hari. Harga per unit untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar (GPU+chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar per bulan.
Untuk dekompresi kekuatan AI, ini adalah salah satu bidang pertama di mana Web3 berinteraksi dengan AI------DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek-proyek berbagi kekuatan GPU yang terwakili termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka dengan cara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan platform ride-hailing atau platform akomodasi, meningkatkan pemanfaatan sumber daya GPU yang belum dimanfaatkan secara maksimal, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya kelebihan dari tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini, ada juga proyek yang bertujuan untuk memulai perangkat dengan batas masuk yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknis", pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sedangkan inferensi memiliki kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan", pihak dengan kebutuhan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, melainkan hanya memilih untuk mengoptimalkan dan menyesuaikan model besar yang sedikit, dan semua skenario ini secara alami cocok untuk sumber daya komputasi yang tidak terpakai secara terdistribusi.
Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya mereka, menyesuaikan secara fleksibel berdasarkan permintaan, sambil memperoleh keuntungan.
▎Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti layang-layang yang tak memiliki tujuan dan tidak berguna, sedangkan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhirnya. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan ekspresi kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kelaparan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa perusahaan tertentu melatih parameter GPT-4 hingga mencapai tingkat triliunan.
Kualitas data: Seiring dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keragaman data, spesialisasi data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga telah menuntut kualitas yang baru.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Jumlah data yang besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Pengumpulan Data: Kemampuan untuk menyediakan data dunia nyata yang diambil secara gratis sedang dengan cepat habis, dan pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali kepada kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti sebuah platform sosial yang menghasilkan total pendapatan 203 juta dolar AS melalui perjanjian lisensi data dengan perusahaan AI.
Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai yang dihasilkan oleh data, serta memperoleh data yang lebih pribadi dan bernilai bagi pengguna dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi dari Web3.
Grass adalah lapisan dan jaringan data terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relay untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan secara fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori di platform sosial tertentu dan @PublicAI untuk mengumpulkan data.
Pra-pemrosesan data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas standar, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit langkah manual di industri AI, yang telah melahirkan industri penanda data. Seiring dengan meningkatnya tuntutan model terhadap kualitas data, ambang batas untuk penanda data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap kunci penandaan data ini.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat mendapatkan imbalan dengan memberikan data yang ditandai, komentar, atau bentuk masukan lainnya.
Proyek pelabelan data Sapien menggamifikasi tugas pelabelan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: Yang perlu dijelaskan adalah bahwa privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data berkaitan dengan pengolahan data sensitif, sedangkan keamanan data melindungi informasi dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keuntungan teknologi privasi Web3 dan potensi aplikasi terletak pada dua aspek: (1) Pelatihan data sensitif; (2) Kolaborasi data: Beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu membagikan data asli mereka.
Teknologi privasi Web3 yang relatif umum saat ini meliputi:
Lingkungan Eksekusi Terpercaya ( TEE ), seperti Protokol Super;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, yang memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal secara aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada pada tahap awal, sebagian besar proyek masih dalam eksplorasi, dan salah satu tantangan saat ini adalah biaya komputasi.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
15 Suka
Hadiah
15
6
Bagikan
Komentar
0/400
RektDetective
· 4jam yang lalu
play people for suckers terlalu banyak, sekarang orang-orang bahkan tidak berani masuk.
Lihat AsliBalas0
Blockblind
· 07-09 18:23
Gelombang ini terlalu kuat.
Lihat AsliBalas0
ConsensusBot
· 07-09 18:17
Mencari uang ya?
Lihat AsliBalas0
ZenMiner
· 07-09 18:08
Terus挖 tidak lelah, jika lelah beli koin
Lihat AsliBalas0
EthSandwichHero
· 07-09 18:01
Sejujurnya, Web3 kita ini cukup dapat diandalkan dalam hal AI.
AI+Web3 ekosistem panorama: dari Daya Komputasi bersama hingga peluang baru dalam komputasi privasi
AI+Web3: Menara dan Lapangan
TL;DR
Proyek Web3 dengan konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.
Peluang Web3 di industri AI terwujud dalam: menggunakan insentif terdistribusi untuk mengoordinasikan potensi pasokan dalam ekor panjang ------ lintas data, penyimpanan, dan komputasi; pada saat yang sama, membangun model sumber terbuka serta pasar terdesentralisasi untuk Agen AI.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) dan pengembangan pendukung.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, sementara AI diharapkan dapat membantu Web3 memperluas jangkauannya.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat, sayap kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang arus di Web3 di sisi lainnya.
Dengan dukungan konsep AI, terlihat jelas peningkatan pembiayaan di pasar kripto yang melambat. Media mencatat, hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pembiayaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS pada putaran A.
Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu hanya lebih dari satu tahun, total kapitalisasi pasar untuk jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI yang utama membawa keuntungan yang jelas, setelah model video dari teks Sora milik suatu perusahaan dirilis, harga rata-rata di sektor AI naik sebesar 151%; efek AI juga mempengaruhi salah satu sektor pengumpulan dana kripto, Meme: Konsep MemeCoin pertama dengan AI Agent ------ GOAT dengan cepat menjadi terkenal dan mencapai valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.
Tentang penelitian dan topik AI+Web3 juga sedang hangat, dari AI+Depin hingga AI Memecoin dan sekarang AI Agent serta AI DAO, perasaan FOMO sudah tidak dapat mengikuti kecepatan perputaran narasi baru.
AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan ini, tidak dapat dihindari dilihat sebagai pernikahan yang diatur oleh modal. Kita tampaknya sangat sulit untuk membedakan di balik jubah megah ini, apakah ini adalah arena para spekulan, atau malam sebelum kebangkitan fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang sangat penting bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuatnya menjadi lebih baik? Apakah ada manfaat yang bisa diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk berdiri di atas bahu para pendahulu untuk mengamati pola ini: Bagaimana Web3 dapat berperan di setiap lapisan tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk memberikan kehidupan baru pada Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model besar AI:
Dengan bahasa yang lebih sederhana, keseluruhan proses dapat dijelaskan sebagai berikut: "Model besar" seperti otak manusia. Pada tahap awal, otak ini adalah milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang melimpah untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi luar yang tidak terlabel secara besar-besaran perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI melalui "pelatihan" membangun model dengan kemampuan pemahaman dan prediksi, yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten yang dipelajari mulai dibagi menjadi disiplin ilmu, atau mendapatkan umpan balik dan perbaikan melalui interaksi dengan orang lain, maka masuk ke tahap "penyesuaian halus" model besar.
Anak-anak yang tumbuh dan belajar berbicara dapat memahami makna dan mengekspresikan perasaan serta pemikiran mereka dalam dialog baru. Tahap ini mirip dengan "penalaran" model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan penerapan model AI besar setelah selesai dilatih dalam fase penalaran untuk berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lainnya.
AI Agent semakin mendekati bentuk berikutnya dari model besar------dapat menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah secara awal membentuk ekosistem multi-lapis yang saling terhubung, mencakup setiap tahap dari proses model AI.
Satu, Lapisan Dasar: Kekuatan Komputasi dan Data Airbnb
▎Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, LLAMA3 dari sebuah perusahaan memerlukan 16.000 H100GPU yang diproduksi oleh perusahaan tersebut (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi) untuk menyelesaikan pelatihan dalam waktu 30 hari. Harga per unit untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar (GPU+chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar per bulan.
Untuk dekompresi kekuatan AI, ini adalah salah satu bidang pertama di mana Web3 berinteraksi dengan AI------DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek-proyek berbagi kekuatan GPU yang terwakili termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka dengan cara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan platform ride-hailing atau platform akomodasi, meningkatkan pemanfaatan sumber daya GPU yang belum dimanfaatkan secara maksimal, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya kelebihan dari tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini, ada juga proyek yang bertujuan untuk memulai perangkat dengan batas masuk yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknis", pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sedangkan inferensi memiliki kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan", pihak dengan kebutuhan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, melainkan hanya memilih untuk mengoptimalkan dan menyesuaikan model besar yang sedikit, dan semua skenario ini secara alami cocok untuk sumber daya komputasi yang tidak terpakai secara terdistribusi.
▎Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti layang-layang yang tak memiliki tujuan dan tidak berguna, sedangkan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhirnya. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan ekspresi kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kelaparan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa perusahaan tertentu melatih parameter GPT-4 hingga mencapai tingkat triliunan.
Kualitas data: Seiring dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keragaman data, spesialisasi data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga telah menuntut kualitas yang baru.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Jumlah data yang besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai yang dihasilkan oleh data, serta memperoleh data yang lebih pribadi dan bernilai bagi pengguna dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi dari Web3.
Grass adalah lapisan dan jaringan data terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relay untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan secara fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori di platform sosial tertentu dan @PublicAI untuk mengumpulkan data.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap kunci penandaan data ini.
Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat mendapatkan imbalan dengan memberikan data yang ditandai, komentar, atau bentuk masukan lainnya.
Proyek pelabelan data Sapien menggamifikasi tugas pelabelan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi Web3 yang relatif umum saat ini meliputi:
Lingkungan Eksekusi Terpercaya ( TEE ), seperti Protokol Super;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, yang memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal secara aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada pada tahap awal, sebagian besar proyek masih dalam eksplorasi, dan salah satu tantangan saat ini adalah biaya komputasi.