Proyek Web3 dengan konsep AI menjadi sasaran pengumpulan dana di pasar primer dan sekunder.
Kesempatan Web3 di industri AI tercermin dalam: penggunaan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang—lintas data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) dan membantu pengembangan.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menembus batas.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepatannya, efek kupu-kupu yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang arus di Web3 di sisi lainnya.
Dengan dukungan konsep AI, ada peningkatan yang jelas dalam pendanaan pasar kripto yang melambat. Statistik menunjukkan bahwa hanya dalam paruh pertama tahun 2024, ada 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS dalam putaran A.
Pasar sekunder semakin berkembang, data agregasi kripto menunjukkan bahwa dalam waktu lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI utama memberikan keuntungan yang jelas, setelah peluncuran model video teks Sora oleh OpenAI, harga rata-rata di sektor AI naik 151%; efek AI juga menjalar ke salah satu sektor kripto yang menarik perhatian, Meme: konsep MemeCoin AI Agent pertama—GOAT dengan cepat menjadi populer dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.
Penelitian dan topik tentang AI+Web3 juga sangat hangat, dari AI+Depin hingga AI Memecoin, dan sekarang AI Agent dan AI DAO, emosi FOMO sudah tidak dapat mengikuti kecepatan perputaran narasi baru.
AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan, tidak dapat dihindari dianggap sebagai pernikahan yang diatur oleh modal, kami tampaknya sulit membedakan di bawah jubah megah ini, apakah ini benar-benar arena para spekulan, atau malam sebelum terjadinya fajar?
Untuk menjawab pertanyaan ini, pemikiran yang sangat penting bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuat segalanya menjadi lebih baik? Apakah ada manfaat yang bisa diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: bagaimana Web3 dapat berperan dalam setiap aspek tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk menghidupkan kembali Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Dengan bahasa yang lebih sederhana, seluruh prosesnya dapat dijelaskan sebagai berikut: "Model besar" seperti otak manusia. Pada tahap awal, otak ini milik seorang bayi yang baru saja lahir, yang perlu mengamati dan menyerap informasi dari lingkungan sekitarnya yang melimpah untuk memahami dunia ini, inilah tahap "pengumpulan" data. Karena komputer tidak memiliki penglihatan, pendengaran, dan berbagai indera lainnya seperti manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai terpecah dalam bidang-bidang tertentu, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan melakukan koreksi, maka itu memasuki tahap "penyesuaian halus" dari model besar.
Anak-anak secara bertahap tumbuh dan belajar berbicara, kemudian mereka dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" dalam model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan penerapan model AI besar dalam tahap penalaran setelah dilatih dan digunakan untuk berbagai tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
Dan AI Agent lebih mendekati bentuk berikutnya dari model besar—mampu menjalankan tugas secara independen dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir tetapi juga mampu mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem yang terhubung dan multi-lapis, mencakup semua tahap proses model AI.
Satu, Lapisan Dasar: Kekuatan Komputasi dan Data dari Airbnb
Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah kekuatan komputasi dan energi yang dibutuhkan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, Meta's LLAMA3 membutuhkan 16.000 H100GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi.) untuk menyelesaikan pelatihan dalam waktu 30 hari. Harga satuan versi 80GB berkisar antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt-jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk pengurangan beban komputasi AI, ini adalah salah satu bidang pertama di mana Web3 bersinggungan dengan AI — DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs statistik data telah memamerkan lebih dari 1400 proyek, di mana proyek berbagi komputasi GPU yang terkemuka termasuk io.net, Aethir, Akash, Render Network, dan sebagainya.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, sehingga meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai. Pengguna akhir juga mendapatkan sumber daya komputasi yang lebih efisien dan biaya rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, serta operator sumber daya kelebihan dari tambang kripto, perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang berupaya untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknologi" pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kapasitas pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sedangkan inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan" pihak dengan daya komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyempurnakan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya, dapat menyesuaikan secara fleksibel sesuai permintaan, sambil memperoleh keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti daun mengapung di permukaan air dan tidak berguna, sedangkan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan perilaku kemanusiaan. Saat ini, dilema kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kecanduan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa jumlah parameter yang digunakan OpenAI untuk melatih GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keragaman data, profesionalisme data vertikal, dan pengambilan sumber data baru seperti emosi media sosial juga menuntut kualitas yang baru.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya dataset berkualitas tinggi dan mulai membatasi pengambilan dataset.
Biaya pengolahan data yang tinggi: volume data besar, proses pengolahan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pengolahan data dasar.
Saat ini, solusi web3 terwujud dalam empat aspek berikut:
Pengumpulan Data: Kemampuan untuk secara gratis menyediakan data dunia nyata yang diambil dengan cepat akan habis, dan pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali kepada para kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti Reddit yang menghasilkan total pendapatan sebesar 203 juta dolar melalui perjanjian lisensi data yang ditandatangani dengan perusahaan AI.
Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan lebih bernilai dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep Unique Data Liquidity Pool (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan memilih dengan fleksibel apakah akan memberikan izin penggunaan data tersebut kepada pihak ketiga tertentu;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.
Pra-pemrosesan data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, yang melibatkan standarisasi, penyaringan, dan penanganan nilai yang hilang dalam tugas yang berulang. Tahap ini merupakan salah satu dari sedikit tahap manual dalam industri AI, yang telah melahirkan industri penandaan data. Seiring dengan meningkatnya tuntutan model terhadap kualitas data, ambang batas untuk penandaan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk memasukkan penandaan data sebagai langkah kunci.
Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat mendapatkan imbalan dengan menyediakan data berlabel, anotasi, atau bentuk masukan lainnya.
Proyek pelabelan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: Yang perlu dijelaskan adalah bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data berkaitan dengan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi aplikasi terletak pada dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu membagikan data asli mereka.
Teknologi privasi yang umum di Web3 saat ini meliputi:
Lingkungan Eksekusi Terpercaya(TEE), seperti Protokol Super;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network;
Teknologi Zero-Knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada pada tahap awal, sebagian besar proyek masih dalam eksplorasi, dan salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:
Kerangka zkML EZKL membutuhkan sekitar 80 menit
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
15 Suka
Hadiah
15
6
Bagikan
Komentar
0/400
HodlKumamon
· 5jam yang lalu
Data berbicara~ 40% dari pasar sudah melebihi ambang kecemasan beruang, meow
Lihat AsliBalas0
GateUser-bd883c58
· 5jam yang lalu
赶紧masukkan posisi囤点 AI Token
Lihat AsliBalas0
GasFeeBarbecue
· 5jam yang lalu
Cukup jelas ya, cepat atau lambat AI harus ditambahkan ke on-chain.
Lihat AsliBalas0
SchroedingerAirdrop
· 5jam yang lalu
Cuma ini? Konsep ai sudah diobrak-abrik.
Lihat AsliBalas0
MidnightTrader
· 5jam yang lalu
Aih, ada potensi tapi hanya konsep, setelah itu pasti akan pergi.
Integrasi AI dan Web3: Aplikasi dan Peluang Teknologi Desentralisasi di Setiap Tahap Kecerdasan Buatan
AI+Web3: Menara dan Alun-Alun
TL;DR
Proyek Web3 dengan konsep AI menjadi sasaran pengumpulan dana di pasar primer dan sekunder.
Kesempatan Web3 di industri AI tercermin dalam: penggunaan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang—lintas data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) dan membantu pengembangan.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menembus batas.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepatannya, efek kupu-kupu yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang arus di Web3 di sisi lainnya.
Dengan dukungan konsep AI, ada peningkatan yang jelas dalam pendanaan pasar kripto yang melambat. Statistik menunjukkan bahwa hanya dalam paruh pertama tahun 2024, ada 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS dalam putaran A.
Pasar sekunder semakin berkembang, data agregasi kripto menunjukkan bahwa dalam waktu lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI utama memberikan keuntungan yang jelas, setelah peluncuran model video teks Sora oleh OpenAI, harga rata-rata di sektor AI naik 151%; efek AI juga menjalar ke salah satu sektor kripto yang menarik perhatian, Meme: konsep MemeCoin AI Agent pertama—GOAT dengan cepat menjadi populer dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.
Penelitian dan topik tentang AI+Web3 juga sangat hangat, dari AI+Depin hingga AI Memecoin, dan sekarang AI Agent dan AI DAO, emosi FOMO sudah tidak dapat mengikuti kecepatan perputaran narasi baru.
AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan, tidak dapat dihindari dianggap sebagai pernikahan yang diatur oleh modal, kami tampaknya sulit membedakan di bawah jubah megah ini, apakah ini benar-benar arena para spekulan, atau malam sebelum terjadinya fajar?
Untuk menjawab pertanyaan ini, pemikiran yang sangat penting bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuat segalanya menjadi lebih baik? Apakah ada manfaat yang bisa diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: bagaimana Web3 dapat berperan dalam setiap aspek tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk menghidupkan kembali Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model AI besar:
Dengan bahasa yang lebih sederhana, seluruh prosesnya dapat dijelaskan sebagai berikut: "Model besar" seperti otak manusia. Pada tahap awal, otak ini milik seorang bayi yang baru saja lahir, yang perlu mengamati dan menyerap informasi dari lingkungan sekitarnya yang melimpah untuk memahami dunia ini, inilah tahap "pengumpulan" data. Karena komputer tidak memiliki penglihatan, pendengaran, dan berbagai indera lainnya seperti manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai terpecah dalam bidang-bidang tertentu, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan melakukan koreksi, maka itu memasuki tahap "penyesuaian halus" dari model besar.
Anak-anak secara bertahap tumbuh dan belajar berbicara, kemudian mereka dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" dalam model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan penerapan model AI besar dalam tahap penalaran setelah dilatih dan digunakan untuk berbagai tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
Dan AI Agent lebih mendekati bentuk berikutnya dari model besar—mampu menjalankan tugas secara independen dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir tetapi juga mampu mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem yang terhubung dan multi-lapis, mencakup semua tahap proses model AI.
Satu, Lapisan Dasar: Kekuatan Komputasi dan Data dari Airbnb
Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah kekuatan komputasi dan energi yang dibutuhkan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, Meta's LLAMA3 membutuhkan 16.000 H100GPU yang diproduksi oleh NVIDIA (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi.) untuk menyelesaikan pelatihan dalam waktu 30 hari. Harga satuan versi 80GB berkisar antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt-jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk pengurangan beban komputasi AI, ini adalah salah satu bidang pertama di mana Web3 bersinggungan dengan AI — DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs statistik data telah memamerkan lebih dari 1400 proyek, di mana proyek berbagi komputasi GPU yang terkemuka termasuk io.net, Aethir, Akash, Render Network, dan sebagainya.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, sehingga meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai. Pengguna akhir juga mendapatkan sumber daya komputasi yang lebih efisien dan biaya rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, serta operator sumber daya kelebihan dari tambang kripto, perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Saat ini juga ada proyek yang berupaya untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknologi" pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kapasitas pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sedangkan inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan" pihak dengan daya komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyempurnakan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti daun mengapung di permukaan air dan tidak berguna, sedangkan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan perilaku kemanusiaan. Saat ini, dilema kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kecanduan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa jumlah parameter yang digunakan OpenAI untuk melatih GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keragaman data, profesionalisme data vertikal, dan pengambilan sumber data baru seperti emosi media sosial juga menuntut kualitas yang baru.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya dataset berkualitas tinggi dan mulai membatasi pengambilan dataset.
Biaya pengolahan data yang tinggi: volume data besar, proses pengolahan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pengolahan data dasar.
Saat ini, solusi web3 terwujud dalam empat aspek berikut:
Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan lebih bernilai dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;
Vana memperkenalkan konsep Unique Data Liquidity Pool (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan memilih dengan fleksibel apakah akan memberikan izin penggunaan data tersebut kepada pihak ketiga tertentu;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk memasukkan penandaan data sebagai langkah kunci.
Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat mendapatkan imbalan dengan menyediakan data berlabel, anotasi, atau bentuk masukan lainnya.
Proyek pelabelan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi yang umum di Web3 saat ini meliputi:
Lingkungan Eksekusi Terpercaya(TEE), seperti Protokol Super;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network;
Teknologi Zero-Knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada pada tahap awal, sebagian besar proyek masih dalam eksplorasi, dan salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah: