OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Dapat Dihimpun Model dengan OP Stack+EigenDA sebagai Fondasi
I. Pendahuluan | Lompatan Lapisan Model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang sebanding dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur di industri AI tradisional, bidang Crypto AI juga telah melalui tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang umumnya menekankan logika pertumbuhan kasar "berkompetisi dalam daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar (LLM) tradisional sangat bergantung pada kumpulan data besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang sering mencapai 70B hingga 500B, dan biaya pelatihan sekali dapat mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai suatu paradigma penyetelan ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka, menggabungkan sedikit data profesional berkualitas tinggi serta teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi dengan memanggil melalui arsitektur Agen, sistem plugin untuk routing dinamis, hot-plug modul LoRA, dan RAG (Retrieval-Augmented Generation) dalam kolaborasi dengan LLM. Arsitektur ini mempertahankan kemampuan jangkauan luas dari LLM, sambil meningkatkan kinerja profesional melalui modul pemurnian, membentuk sistem cerdas kombinatorial yang sangat fleksibel.
Nilai dan batas AI Crypto di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), alasan utamanya adalah
Ambang teknologi terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan teknik yang dibutuhkan untuk melatih Model Dasar sangat besar, saat ini hanya ada raksasa teknologi seperti Amerika Serikat dan China yang memiliki kemampuan tersebut.
Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA, Mixtral telah tersedia sebagai sumber terbuka, kunci untuk mendorong terobosan model tetap terpusat pada lembaga penelitian dan sistem teknik tertutup, proyek on-chain memiliki ruang partisipasi yang terbatas di tingkat model inti.
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyempurnaan model bahasa khusus (SLM) dan menggabungkan verifiabilitas dan mekanisme insentif dari Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini tercermin dalam dua arah inti:
Lapisan Verifikasi Tepercaya: Meningkatkan jejak dan ketahanan terhadap manipulasi dari keluaran AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan secara on-chain.
Mekanisme insentif: Memanfaatkan Token asli, digunakan untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan eksekusi agen, membangun siklus positif untuk pelatihan dan layanan model.
Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain
Dari sini terlihat bahwa titik keberhasilan proyek Crypto AI berbasis model terutama terfokus pada penyesuaian ringan SLM kecil, akses dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model dengan sumber daya menengah hingga rendah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model secara jelas dan tidak dapat diubah di dalam rantai, secara signifikan meningkatkan kredibilitas data dan ketertelusuran pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model digunakan, akan secara otomatis memicu distribusi hadiah, mengubah perilaku AI menjadi nilai yang dapat diukur dan diperdagangkan dalam bentuk token, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam pembuatan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Ini pertama kali mengusulkan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat digabungkan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk pelatihan dan penyebaran model kustom berdasarkan LLM sumber terbuka;
OpenLoRA: Mendukung keberadaan seribu model secara bersamaan, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya pengembangan;
PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui rekaman panggilan on-chain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan diverifikasi melalui kolaborasi komunitas;
Platform Usulan Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang digerakkan oleh data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, serta dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
Settlement di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
Kompatibel EVM: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan dan memastikan verifikasi data.
Dibandingkan dengan NEAR yang lebih berfokus pada lapisan dasar, mengedepankan kedaulatan data dan arsitektur «AI Agents on BOS», OpenLedger lebih fokus pada pembangunan rantai AI khusus yang berorientasi pada insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat ditelusuri, dapat digabungkan, dan memiliki nilai berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka yang dapat digabungkan di atas rantai, mendorong jalur realisasi «model sebagai aset».
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tanpa kode Model Factory
ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyesuaikan model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM arus utama (seperti LLaMA, Mistral), melalui GUI untuk mengonfigurasi hyperparameter.
Penyesuaian ringan: Mesin LoRA / QLoRA terintegrasi, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau panggilan berbagi ekosistem.
Antarmuka verifikasi interaktif: Menyediakan antarmuka percakapan, memudahkan pengujian langsung kemampuan tanya jawab model.
RAG menghasilkan jejak: Menjawab dengan kutipan sumber, meningkatkan kepercayaan dan dapat diaudit.
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penerapan, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkontrol, interaktif secara real-time, dan dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Seri LLaMA: Ekosistem terluas, komunitas aktif, kinerja umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling utama saat ini.
Mistral: Arsitektur efisien, kinerja inferensi sangat baik, cocok untuk skenario yang fleksibel dan sumber daya terbatas.
Qwen: Diproduksi oleh Alibaba, kinerja tugas dalam bahasa Mandarin sangat baik, kemampuan komprehensif yang kuat, cocok sebagai pilihan utama bagi pengembang dalam negeri.
ChatGLM: Efek percakapan dalam bahasa Mandarin sangat menonjol, cocok untuk layanan pelanggan khusus dan skenario lokal.
Deepseek: Unggul dalam pengkodean dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Model ringan yang diluncurkan oleh Google, dengan struktur yang jelas, mudah untuk cepat dipahami dan dieksperimen.
Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi tingkat aktivitas komunitas telah menurun.
BLOOM: Dukungan multi-bahasa yang kuat, tetapi kinerja inferensi relatif lemah, cocok untuk penelitian yang mencakup berbagai bahasa.
GPT-2: Model klasik awal, hanya cocok untuk keperluan pengajaran dan validasi, tidak disarankan untuk digunakan dalam penerapan nyata.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "pragmatik yang diutamakan" yang dibuat berdasarkan batasan realitas dari penyebaran di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki kelebihan ambang rendah, dapat dimonetisasi, dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi model, distribusi, dan pendapatan;
Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
Untuk pengguna: Anda dapat menggabungkan model atau Agent seperti memanggil API.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks peringkat rendah" dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya pada tugas tertentu (seperti tanya jawab hukum, konsultasi medis), diperlukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan.", yang efisien dalam parameter, cepat dalam pelatihan, dan fleksibel dalam penerapan, adalah metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini seperti biaya tinggi, rendahnya pemanfaatan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, yang didasarkan pada desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah:
Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan disimpan di OpenLedger, memungkinkan pemuatan sesuai kebutuhan, menghindari pemuatan semua model ke dalam memori grafis, menghemat sumber daya.
Model Hosting dan Adapter Merging Layer (Model Hosting & Adapter Merging Layer): Semua model fine-tuning berbagi model dasar (base model), saat inferensi
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
14 Suka
Hadiah
14
7
Bagikan
Komentar
0/400
airdrop_whisperer
· 8jam yang lalu
Sekali lagi datang untuk memanfaatkan popularitas AI...
Lihat AsliBalas0
MondayYoloFridayCry
· 18jam yang lalu
Pasar ini terlalu tm卷了…
Lihat AsliBalas0
MentalWealthHarvester
· 18jam yang lalu
Mesin pemantau harga yang mahal untuk para suckers
Lihat AsliBalas0
CantAffordPancake
· 18jam yang lalu
dunia kripto pertama investor ritel 迷茫中!
Lihat AsliBalas0
fren.eth
· 18jam yang lalu
Menulis begitu banyak hanya untuk mencari sensasi.
Lihat AsliBalas0
SmartContractWorker
· 18jam yang lalu
Sepertinya kita perlu berjuang beberapa tahun lagi.
OpenLedger: Membangun model ekonomi agen cerdas yang dapat digabungkan berbasis data
OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Dapat Dihimpun Model dengan OP Stack+EigenDA sebagai Fondasi
I. Pendahuluan | Lompatan Lapisan Model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang sebanding dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur di industri AI tradisional, bidang Crypto AI juga telah melalui tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang umumnya menekankan logika pertumbuhan kasar "berkompetisi dalam daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar (LLM) tradisional sangat bergantung pada kumpulan data besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang sering mencapai 70B hingga 500B, dan biaya pelatihan sekali dapat mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai suatu paradigma penyetelan ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka, menggabungkan sedikit data profesional berkualitas tinggi serta teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi dengan memanggil melalui arsitektur Agen, sistem plugin untuk routing dinamis, hot-plug modul LoRA, dan RAG (Retrieval-Augmented Generation) dalam kolaborasi dengan LLM. Arsitektur ini mempertahankan kemampuan jangkauan luas dari LLM, sambil meningkatkan kinerja profesional melalui modul pemurnian, membentuk sistem cerdas kombinatorial yang sangat fleksibel.
Nilai dan batas AI Crypto di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), alasan utamanya adalah
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyempurnaan model bahasa khusus (SLM) dan menggabungkan verifiabilitas dan mekanisme insentif dari Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini tercermin dalam dua arah inti:
Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain
Dari sini terlihat bahwa titik keberhasilan proyek Crypto AI berbasis model terutama terfokus pada penyesuaian ringan SLM kecil, akses dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model dengan sumber daya menengah hingga rendah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model secara jelas dan tidak dapat diubah di dalam rantai, secara signifikan meningkatkan kredibilitas data dan ketertelusuran pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model digunakan, akan secara otomatis memicu distribusi hadiah, mengubah perilaku AI menjadi nilai yang dapat diukur dan diperdagangkan dalam bentuk token, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam pembuatan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Ini pertama kali mengusulkan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat digabungkan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang digerakkan oleh data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, serta dapat diverifikasi untuk model AI.
Dibandingkan dengan NEAR yang lebih berfokus pada lapisan dasar, mengedepankan kedaulatan data dan arsitektur «AI Agents on BOS», OpenLedger lebih fokus pada pembangunan rantai AI khusus yang berorientasi pada insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat ditelusuri, dapat digabungkan, dan memiliki nilai berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka yang dapat digabungkan di atas rantai, mendorong jalur realisasi «model sebagai aset».
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tanpa kode Model Factory
ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyesuaikan model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penerapan, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkontrol, interaktif secara real-time, dan dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "pragmatik yang diutamakan" yang dibuat berdasarkan batasan realitas dari penyebaran di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki kelebihan ambang rendah, dapat dimonetisasi, dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks peringkat rendah" dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya pada tugas tertentu (seperti tanya jawab hukum, konsultasi medis), diperlukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan.", yang efisien dalam parameter, cepat dalam pelatihan, dan fleksibel dalam penerapan, adalah metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini seperti biaya tinggi, rendahnya pemanfaatan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, yang didasarkan pada desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah: