AI konseptli Web3 projeleri birinci ve ikinci piyasalarda yatırım çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, dağıtılmış teşviklerin uzun kuyruktaki potansiyel arzı koordine etmesiyle ortaya çıkmaktadır ------ veri, depolama ve hesaplama arasında; aynı zamanda açık kaynak modelleri ve AI Agent'ların merkeziyetsiz pazarını kurmakla.
AI, Web3 sektöründe öncelikle zincir üzerindeki finansal işlemlerde (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olarak kullanılmaktadır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkmaktadır: Web3, AI merkezileşmesine karşı çıkma umudunu taşırken, AI Web3'ün sınırlarını aşmasına yardımcı olabilir.
Giriş
Son iki yılda, yapay zekanın gelişimi sanki hızlandırma tuşuna basılmış gibi, ChatGPT'nin tetiklediği bu kelebek etkisi, yalnızca üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da büyük dalgalar yarattı.
AI konsepti sayesinde, kripto pazarındaki finansman belirgin şekilde arttı. Yapılan istatistiklere göre, yalnızca 2024'ün ilk yarısında 64 Web3+AI projesi finansman sağladı; bunlar arasında yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar finansman elde etti.
İkincil piyasa daha da canlı hale geldi, kripto agregat web siteleri verileri, sadece bir yıl içinde AI alanının toplam piyasa değerinin 48.5 milyar dolara ulaştığını, 24 saatlik işlem hacminin ise 8.6 milyar dolara yaklaştığını gösteriyor; ana akım AI teknolojilerindeki ilerlemelerin getirdiği avantajlar belirgin hale geldi, OpenAI'nin Sora metin-video modelinin yayınlanmasının ardından, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi ayrıca kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konseptine sahip olan MemeCoin------GOAT hızla popülerlik kazandı ve 1.4 milyar dolar değerlemeye ulaştı, AI Meme dalgasını başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da aynı derecede sıcak; AI+Depin'den AI Memecoin'e, ardından günümüzdeki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatıların dönüş hızına ayak uyduramıyor.
AI+Web3, bu bol sıcak para, fırsatlar ve gelecek hayalleriyle dolu terim kombinasyonu, kaçınılmaz olarak bir sermaye evliliği olarak görülüyor; bu muhteşem dış görünümün altında, gerçekten spekülatörlerin sahnesi mi yoksa bir şafağın patlayışından önceki gece mi olduğunu ayırt etmekte zorlanıyoruz?
Bu soruya cevap vermek için, kritik bir düşünce, karşı tarafın daha iyi hale gelip gelmeyeceğidir? Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yelpazesinin her aşamasında nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni bir canlılık getirebilir?
Bölüm 1 AI yığınında Web3'te ne fırsatlar var?
Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:
Sürekli basit bir dille süreci açıklamak: "Büyük model", insan beynine benzer; erken aşamalarda bu beyin, yeni doğmuş bir bebeğe aittir ve dünyayı anlamak için büyük miktarda dışsal bilgi gözlemleyip alması gerekir; bu, verilerin "toplanma" aşamasıdır; bilgisayarların insanın çoklu duyularına sahip olmaması nedeniyle, eğitim öncesinde dışarıdan gelen büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bir formata "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, anlayış ve tahmin yeteneğine sahip bir model oluşturmak için "eğitim" sürecinden geçer, bu süreç, bir bebeğin dış dünyayı yavaş yavaş anlaması ve öğrenmesi olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneklerine benzer. Öğrenim içeriği branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltme yaptığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar konuşmayı öğrendiklerinde, yeni diyaloglarda anlamı anlayabilir ve kendi hislerini ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" aşamasına benzer; model, yeni dil ve metin girdileri üzerinde tahmin ve analiz yapabilir. Bebekler, dil becerileri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve sorunları çözerler. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması ve ses tanıma gibi alanlarda uygulanmasına benzer.
AI Ajanı ise büyük modellerin bir sonraki biçimine daha yakındır ------ bağımsız olarak görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen, sadece düşünme yeteneğine sahip değil, aynı zamanda hafızası, planlama yeteneği var ve araçları kullanarak dünya ile etkileşim kurabiliyor.
Şu anda, AI'nın her yığın üzerindeki acı noktalarına yönelik olarak, Web3, AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbiriyle bağlantılı bir ekosistem oluşturmaya başlamıştır.
Birinci bölüm: Güç ve verilerin Airbnb'si
Hash Gücü
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Meta'nın LLAMA3'ü, eğitimi tamamlamak için NVIDIA tarafından üretilen 16000 H100 GPU'ya (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birinci sınıf bir grafik işlemci) ihtiyaç duyar. 80GB versiyonunun birim fiyatı 30,000 ile 40,000 dolar arasında değişmektedir ve bu, 4-7 milyar dolar değerinde bir bilgisayar donanımı yatırımı (GPU + ağ çipi) gerektirir. Aynı zamanda, aylık eğitim için 1.6 milyar kilowatt saat enerji tüketimi gerekmekte ve enerji harcaması aylık yaklaşık 20 milyon dolardır.
AI hesaplama gücünün rahatlatılması, Web3'ün AI ile kesiştiği en eski alanlardan biridir ------ DePin (merkeziyetsiz fiziksel altyapı ağı). Şu anda, DePin Ninja veri sitesi 1400'den fazla projeyi listelemiştir, bunlar arasında GPU hesaplama gücü paylaşımlarıyla temsil edilen projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, elinde kullanılmayan GPU kaynakları bulunan bireylerin veya varlıkların, izin almadan merkeziyetsiz bir şekilde hesaplama gücü katkısında bulunmasına olanak tanır. Bu, Uber veya Airbnb benzeri alıcı-satıcı çevrimiçi pazarlar aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır ve nihai kullanıcılar da böylece daha düşük maliyetli, verimli hesaplama kaynakları elde eder; aynı zamanda, stake mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlarda, kaynak sağlayıcılarının uygun şekilde cezalandırılmasını sağlar.
Özellikleri şunlardır:
Boşta kalan GPU kaynaklarını toplayın: Tedarikçiler, bağımsız üçüncü taraf küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazlalık hesaplama gücü kaynaklarıdır, PoS konsensüs mekanizmasına sahip madencilik donanımları, örneğin FileCoin ve ETH madencileri. Şu anda daha düşük giriş engellerine sahip cihazlar başlatmaya yönelik projeler de bulunmaktadır, örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımını çalıştıran bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknik taraf" merkeziyetsiz hesaplama piyasası, çıkarım adımları için daha uygundur. Eğitim, devasa küme ölçeğindeki GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansına olan gereksinim nispeten daha düşüktür; Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmıştır.
b. "Talep tarafında" küçük ve orta ölçekteki hesaplama gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecek, yalnızca az sayıda önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir. Bu senaryolar, doğal olarak dağıtılmış boş hesaplama gücü kaynakları için uygundur.
Merkeziyetsiz mülkiyet: Blok zincirinin teknik anlamı, kaynak sahiplerinin her zaman kaynak üzerindeki kontrolünü elinde bulundurmasıdır; ihtiyaçlara göre esnek bir şekilde ayarlama yapabilir ve aynı zamanda gelir elde edebilir.
Veri
Veri, AI'nın temelini oluşturur. Veri olmadan, hesaplama, işe yaramaz bir su bitkisi gibidir ve veri ile model arasındaki ilişki "Çöp girerse çöp çıkar" deyimi gibi olup, verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani performansını belirler. Şu anda, AI'nın veri talebi sıkıntısı esasen aşağıdaki dört alanda yoğunlaşmaktadır:
Veri açlığı: AI modellerinin eğitimi, büyük miktarda veri girişi gerektirir. Açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını göstermektedir.
Veri kalitesi: AI'nın çeşitli sektörlerle birleşmesiyle, verinin zamanında olması, çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygu analizi gibi unsurlar, kaliteye yönelik yeni gereksinimler getirmiştir.
Gizlilik ve uyumluluk sorunları: Şu anda ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri seti taramaları üzerinde kısıtlamalar getiriyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Açık kaynaklar, AI şirketlerinin Ar-Ge maliyetlerinin %30'undan fazlasının temel veri toplama ve işleme için kullanıldığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri toplama: Ücretsiz olarak sağlanan gerçek dünya verilerinin toplanması hızla tükeniyor, AI şirketlerinin veriler için yaptığı harcamalar her yıl artıyor. Ancak bu harcama, verilerin gerçek katkı sağlayıcılarına geri dönmüyor; platformlar, verilerin sağladığı değer yaratımından tamamen yararlanıyor, örneğin Reddit, AI şirketleriyle imzaladığı veri lisans anlaşmaları sayesinde toplam 203 milyon dolar gelir elde etti.
Gerçekten katkıda bulunan kullanıcıların, verinin sağladığı değer yaratımına katılmalarını sağlamak ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle daha özel ve daha değerli verilere erişim elde etmeleri, Web3'ün vizyonudur.
Grass, kullanıcıların Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak tüm internetten gerçek zamanlı verileri yakalamalarını sağlamak için merkeziyetsiz bir veri katmanı ve ağıdır ve token ödülleri kazanırlar;
Vana, benzersiz bir Veri Akış Havuzu (DLP) kavramını tanıttı; kullanıcılar özel verilerini (alışveriş kayıtları, tarama alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir DLP'ye yükleyebilir ve bu verilerin belirli üçüncü taraflar tarafından kullanılmasına izin verip vermeyeceklerini esnek bir şekilde seçebilirler;
PublicAI'de kullanıcılar, X üzerinde #AI或#Web3'ü kategori etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Veri ön işleme: AI veri işleme sürecinde, toplanan verilerin genellikle gürültülü ve hatalar içerdiği nedeniyle, modelin eğitilmesinden önce bunların temizlenip kullanılabilir bir formata dönüştürülmesi gerekir. Bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesini içeren tekrar eden görevleri kapsar. Bu aşama, AI sektöründeki nadir insanlı aşamalardan biridir ve veri etiketleyici olarak bilinen bir sektörü doğurmuştur. Modelin veri kalitesi talepleri arttıkça, veri etiketleyicilerin giriş şartları da yükselmektedir ve bu görev Web3'ün merkezsiz teşvik mekanizması için doğal olarak uygundur.
Şu anda, Grass ve OpenLayer veri etiketleme gibi bu kritik aşamaya katılmayı düşünüyorlar.
Synesis, veri kalitesine vurgu yaparak "Train2earn" kavramını geliştirdi; kullanıcılar etiketli veriler, notlar veya diğer şekillerde girdiler sağlayarak ödüller kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırır ve kullanıcıların daha fazla puan kazanmak için puanlarını teminat olarak göstermesine olanak tanır.
Veri gizliliği ve güvenliği: Açıklığa kavuşturulması gereken şey, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesiyle ilgilidir; veri güvenliği ise veri bilgilerinin yetkisiz erişim, yok etme ve hırsızlığa karşı korunmasını sağlar. Bu bağlamda, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama alanları iki yönde ortaya çıkmaktadır: (1) Hassas verilerin eğitimi; (2) Veri iş birliği: Birden fazla veri sahibi, ham verileri paylaşmadan AI eğitimine ortak olarak katılabilir.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir Çalıştırma Ortamı ( TEE ), örneğin Super Protocol;
Tam Homomorfik Şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır Bilgi Teknolojileri (zk), Reclaim Protocol gibi zkTLS teknolojisi kullanarak HTTPS trafiği için sıfır bilgi kanıtları oluşturur, kullanıcıların dış web sitelerinden etkinlik, itibar ve kimlik verilerini hassas bilgileri ifşa etmeden güvenli bir şekilde içe aktarmasına olanak tanır.
Ancak, şu anda bu alan hala erken aşamalarda, çoğu proje hala keşif aşamasında ve mevcut bir zorluk, hesaplama maliyetinin çok yüksek olmasıdır, örneğin:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika gerektirir.
Modulus Labs verilerine göre, zkML'nin maliyeti saf hesaplamalardan 1000 kat daha fazladır.
Veri depolama: Veriler elde edildikten sonra, verileri zincir üzerinde depolamak için bir yere ve bu verilerden üretilen LLM'ye ihtiyaç vardır. Veri kullanılabilirliğini (DA) temel sorun olarak ele aldığımızda, Ethereum'un Danksharding yükseltmesi öncesinde, verimliliği 0.08MB idi. Oysa AI modellerinin eğitimi ve gerçek zamanlı çıkarım genellikle saniyede 50 ila 100GB veri akışına ihtiyaç duyar. Bu büyüklükteki fark, mevcut zincir üzerindeki çözümleri "kaynak yoğun AI uygulamalarıyla" başa çıkmakta yetersiz bırakmaktadır.
0g.AI bu kategorinin temsilci projesidir. AI yüksek performans gereksinimleri için tasarlanmış merkezi depolama çözümüdür, ana özellikleri arasında: yüksek performans ve ölçeklenebilirlik, ileri düzey parçalama (Sharding) ve silme kodlama (Erasure Coding) teknolojileri ile büyük ölçekli veri setlerinin hızlı yüklenmesi ve indirilmesini destekler, veri aktarım hızı saniyede 5GB'a yakındır.
İkincisi, Ara Yazılım: Modelin Eğitimi ve Çıkarımı
Açık Kaynak Modeli Merkeziyetsiz Pazar
AI modellerinin kapalı mı yoksa açık mı olacağına dair tartışma asla sona ermedi. Açık kaynaklı olmanın getirdiği kolektif yenilik, kapalı kaynaklı modellerle kıyaslanamaz.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 Likes
Reward
9
4
Share
Comment
0/400
MEVVictimAlliance
· 14h ago
Yine büyük bir şirketin enayileri oyuna getirmesi bu kadar.
View OriginalReply0
BlockchainFoodie
· 07-07 08:28
web3 alpha sunuyoruz, Michelin yıldızlı bir defi şefi gibi... bu ai+web3 kombinasyonu, açıkçası mükemmel bir tarif gibi görünüyor.
View OriginalReply0
PaperHandsCriminal
· 07-07 08:26
Yine Emiciler Tarafından Oyuna Getirildim, neyi görsem yükselişine kopyalıyorum.
AI+Web3 Yapısı Analizi: Altyapıdan İş Modeline Fırsatlar ve Zorluklar
AI+Web3: Kuleler ve Meydanlar
Kısa Özet
AI konseptli Web3 projeleri birinci ve ikinci piyasalarda yatırım çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, dağıtılmış teşviklerin uzun kuyruktaki potansiyel arzı koordine etmesiyle ortaya çıkmaktadır ------ veri, depolama ve hesaplama arasında; aynı zamanda açık kaynak modelleri ve AI Agent'ların merkeziyetsiz pazarını kurmakla.
AI, Web3 sektöründe öncelikle zincir üzerindeki finansal işlemlerde (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olarak kullanılmaktadır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkmaktadır: Web3, AI merkezileşmesine karşı çıkma umudunu taşırken, AI Web3'ün sınırlarını aşmasına yardımcı olabilir.
Giriş
Son iki yılda, yapay zekanın gelişimi sanki hızlandırma tuşuna basılmış gibi, ChatGPT'nin tetiklediği bu kelebek etkisi, yalnızca üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da büyük dalgalar yarattı.
AI konsepti sayesinde, kripto pazarındaki finansman belirgin şekilde arttı. Yapılan istatistiklere göre, yalnızca 2024'ün ilk yarısında 64 Web3+AI projesi finansman sağladı; bunlar arasında yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar finansman elde etti.
İkincil piyasa daha da canlı hale geldi, kripto agregat web siteleri verileri, sadece bir yıl içinde AI alanının toplam piyasa değerinin 48.5 milyar dolara ulaştığını, 24 saatlik işlem hacminin ise 8.6 milyar dolara yaklaştığını gösteriyor; ana akım AI teknolojilerindeki ilerlemelerin getirdiği avantajlar belirgin hale geldi, OpenAI'nin Sora metin-video modelinin yayınlanmasının ardından, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi ayrıca kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konseptine sahip olan MemeCoin------GOAT hızla popülerlik kazandı ve 1.4 milyar dolar değerlemeye ulaştı, AI Meme dalgasını başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da aynı derecede sıcak; AI+Depin'den AI Memecoin'e, ardından günümüzdeki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatıların dönüş hızına ayak uyduramıyor.
AI+Web3, bu bol sıcak para, fırsatlar ve gelecek hayalleriyle dolu terim kombinasyonu, kaçınılmaz olarak bir sermaye evliliği olarak görülüyor; bu muhteşem dış görünümün altında, gerçekten spekülatörlerin sahnesi mi yoksa bir şafağın patlayışından önceki gece mi olduğunu ayırt etmekte zorlanıyoruz?
Bu soruya cevap vermek için, kritik bir düşünce, karşı tarafın daha iyi hale gelip gelmeyeceğidir? Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yelpazesinin her aşamasında nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni bir canlılık getirebilir?
Bölüm 1 AI yığınında Web3'te ne fırsatlar var?
Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:
Sürekli basit bir dille süreci açıklamak: "Büyük model", insan beynine benzer; erken aşamalarda bu beyin, yeni doğmuş bir bebeğe aittir ve dünyayı anlamak için büyük miktarda dışsal bilgi gözlemleyip alması gerekir; bu, verilerin "toplanma" aşamasıdır; bilgisayarların insanın çoklu duyularına sahip olmaması nedeniyle, eğitim öncesinde dışarıdan gelen büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bir formata "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, anlayış ve tahmin yeteneğine sahip bir model oluşturmak için "eğitim" sürecinden geçer, bu süreç, bir bebeğin dış dünyayı yavaş yavaş anlaması ve öğrenmesi olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneklerine benzer. Öğrenim içeriği branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltme yaptığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar konuşmayı öğrendiklerinde, yeni diyaloglarda anlamı anlayabilir ve kendi hislerini ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" aşamasına benzer; model, yeni dil ve metin girdileri üzerinde tahmin ve analiz yapabilir. Bebekler, dil becerileri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve sorunları çözerler. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması ve ses tanıma gibi alanlarda uygulanmasına benzer.
AI Ajanı ise büyük modellerin bir sonraki biçimine daha yakındır ------ bağımsız olarak görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen, sadece düşünme yeteneğine sahip değil, aynı zamanda hafızası, planlama yeteneği var ve araçları kullanarak dünya ile etkileşim kurabiliyor.
Şu anda, AI'nın her yığın üzerindeki acı noktalarına yönelik olarak, Web3, AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbiriyle bağlantılı bir ekosistem oluşturmaya başlamıştır.
Birinci bölüm: Güç ve verilerin Airbnb'si
Hash Gücü
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Meta'nın LLAMA3'ü, eğitimi tamamlamak için NVIDIA tarafından üretilen 16000 H100 GPU'ya (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birinci sınıf bir grafik işlemci) ihtiyaç duyar. 80GB versiyonunun birim fiyatı 30,000 ile 40,000 dolar arasında değişmektedir ve bu, 4-7 milyar dolar değerinde bir bilgisayar donanımı yatırımı (GPU + ağ çipi) gerektirir. Aynı zamanda, aylık eğitim için 1.6 milyar kilowatt saat enerji tüketimi gerekmekte ve enerji harcaması aylık yaklaşık 20 milyon dolardır.
AI hesaplama gücünün rahatlatılması, Web3'ün AI ile kesiştiği en eski alanlardan biridir ------ DePin (merkeziyetsiz fiziksel altyapı ağı). Şu anda, DePin Ninja veri sitesi 1400'den fazla projeyi listelemiştir, bunlar arasında GPU hesaplama gücü paylaşımlarıyla temsil edilen projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, elinde kullanılmayan GPU kaynakları bulunan bireylerin veya varlıkların, izin almadan merkeziyetsiz bir şekilde hesaplama gücü katkısında bulunmasına olanak tanır. Bu, Uber veya Airbnb benzeri alıcı-satıcı çevrimiçi pazarlar aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır ve nihai kullanıcılar da böylece daha düşük maliyetli, verimli hesaplama kaynakları elde eder; aynı zamanda, stake mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlarda, kaynak sağlayıcılarının uygun şekilde cezalandırılmasını sağlar.
Özellikleri şunlardır:
Boşta kalan GPU kaynaklarını toplayın: Tedarikçiler, bağımsız üçüncü taraf küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazlalık hesaplama gücü kaynaklarıdır, PoS konsensüs mekanizmasına sahip madencilik donanımları, örneğin FileCoin ve ETH madencileri. Şu anda daha düşük giriş engellerine sahip cihazlar başlatmaya yönelik projeler de bulunmaktadır, örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımını çalıştıran bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknik taraf" merkeziyetsiz hesaplama piyasası, çıkarım adımları için daha uygundur. Eğitim, devasa küme ölçeğindeki GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansına olan gereksinim nispeten daha düşüktür; Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmıştır.
b. "Talep tarafında" küçük ve orta ölçekteki hesaplama gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecek, yalnızca az sayıda önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir. Bu senaryolar, doğal olarak dağıtılmış boş hesaplama gücü kaynakları için uygundur.
Veri
Veri, AI'nın temelini oluşturur. Veri olmadan, hesaplama, işe yaramaz bir su bitkisi gibidir ve veri ile model arasındaki ilişki "Çöp girerse çöp çıkar" deyimi gibi olup, verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani performansını belirler. Şu anda, AI'nın veri talebi sıkıntısı esasen aşağıdaki dört alanda yoğunlaşmaktadır:
Veri açlığı: AI modellerinin eğitimi, büyük miktarda veri girişi gerektirir. Açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını göstermektedir.
Veri kalitesi: AI'nın çeşitli sektörlerle birleşmesiyle, verinin zamanında olması, çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygu analizi gibi unsurlar, kaliteye yönelik yeni gereksinimler getirmiştir.
Gizlilik ve uyumluluk sorunları: Şu anda ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri seti taramaları üzerinde kısıtlamalar getiriyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Açık kaynaklar, AI şirketlerinin Ar-Ge maliyetlerinin %30'undan fazlasının temel veri toplama ve işleme için kullanıldığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Gerçekten katkıda bulunan kullanıcıların, verinin sağladığı değer yaratımına katılmalarını sağlamak ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle daha özel ve daha değerli verilere erişim elde etmeleri, Web3'ün vizyonudur.
Grass, kullanıcıların Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak tüm internetten gerçek zamanlı verileri yakalamalarını sağlamak için merkeziyetsiz bir veri katmanı ve ağıdır ve token ödülleri kazanırlar;
Vana, benzersiz bir Veri Akış Havuzu (DLP) kavramını tanıttı; kullanıcılar özel verilerini (alışveriş kayıtları, tarama alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir DLP'ye yükleyebilir ve bu verilerin belirli üçüncü taraflar tarafından kullanılmasına izin verip vermeyeceklerini esnek bir şekilde seçebilirler;
PublicAI'de kullanıcılar, X üzerinde #AI或#Web3'ü kategori etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Şu anda, Grass ve OpenLayer veri etiketleme gibi bu kritik aşamaya katılmayı düşünüyorlar.
Synesis, veri kalitesine vurgu yaparak "Train2earn" kavramını geliştirdi; kullanıcılar etiketli veriler, notlar veya diğer şekillerde girdiler sağlayarak ödüller kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırır ve kullanıcıların daha fazla puan kazanmak için puanlarını teminat olarak göstermesine olanak tanır.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir Çalıştırma Ortamı ( TEE ), örneğin Super Protocol;
Tam Homomorfik Şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır Bilgi Teknolojileri (zk), Reclaim Protocol gibi zkTLS teknolojisi kullanarak HTTPS trafiği için sıfır bilgi kanıtları oluşturur, kullanıcıların dış web sitelerinden etkinlik, itibar ve kimlik verilerini hassas bilgileri ifşa etmeden güvenli bir şekilde içe aktarmasına olanak tanır.
Ancak, şu anda bu alan hala erken aşamalarda, çoğu proje hala keşif aşamasında ve mevcut bir zorluk, hesaplama maliyetinin çok yüksek olmasıdır, örneğin:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika gerektirir.
Modulus Labs verilerine göre, zkML'nin maliyeti saf hesaplamalardan 1000 kat daha fazladır.
İkincisi, Ara Yazılım: Modelin Eğitimi ve Çıkarımı
Açık Kaynak Modeli Merkeziyetsiz Pazar
AI modellerinin kapalı mı yoksa açık mı olacağına dair tartışma asla sona ermedi. Açık kaynaklı olmanın getirdiği kolektif yenilik, kapalı kaynaklı modellerle kıyaslanamaz.