تحليل مشهد AI+Web3: الفرص والتحديات من البنية التحتية إلى نماذج الأعمال

AI+Web3: الأبراج والساحات

ليرة تركية ؛ د

  1. مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أصبحت هدفًا لجذب الاستثمارات في السوقين الأول والثاني.

  2. تظهر الفرص في صناعة الذكاء الاصطناعي في Web3 من خلال: استخدام الحوافز الموزعة لتنسيق الإمدادات المحتملة في الذيل الطويل ------ عبر البيانات والتخزين والحوسبة؛ في الوقت نفسه، إنشاء نماذج مفتوحة المصدر وسوق لامركزي لوكلاء الذكاء الاصطناعي.

  3. يتم استخدام الذكاء الاصطناعي بشكل رئيسي في صناعة Web3 في التمويل على السلسلة (المدفوعات المشفرة، التداول، تحليل البيانات) بالإضافة إلى المساعدة في التطوير.

  4. تظهر فائدة AI + Web3 في تكامل الاثنين: من المتوقع أن يتصدى Web3 لتركز AI، ومن المتوقع أن تساعد AI Web3 في كسر الحواجز.

! الذكاء الاصطناعي+Web3: الأبراج والساحات

المقدمة

على مدى العامين الماضيين، بدا أن تطور الذكاء الاصطناعي قد تم الضغط على زر التسريع، هذه الظاهرة الناتجة عن Chatgpt لم تفتح فقط عالماً جديداً من الذكاء الاصطناعي التوليدي، بل أثارت أيضًا موجة هائلة في مجال Web3.

بدعم من مفهوم الذكاء الاصطناعي، شهدت تمويلات سوق العملات الرقمية انتعاشاً ملحوظاً. وفقاً للإحصاءات، فقط في النصف الأول من عام 2024، أكملت 64 مشروعاً من Web3+AI تمويلها، حيث حصل نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 على تمويل قدره 100 مليون دولار في الجولة A.

ازدهر السوق الثانوي بشكل أكبر، حيث أظهرت بيانات موقع تجميع العملات المشفرة أنه في غضون أكثر من عام بقليل، وصلت القيمة السوقية الإجمالية لمجال الذكاء الاصطناعي إلى 48.5 مليار دولار، وحجم التداول في 24 ساعة اقترب من 8.6 مليار دولار؛ وكانت فوائد التقدم الواضح في تقنيات الذكاء الاصطناعي بارزة بعد إصدار نموذج تحويل النص إلى فيديو Sora من OpenAI، حيث زاد متوسط أسعار قطاع الذكاء الاصطناعي بنسبة 151٪؛ كما أن تأثير الذكاء الاصطناعي امتد أيضًا إلى قطاع العملات المشفرة الجاذبة للسيولة، حيث أصبح عملة MemeCoin GOAT، والتي تمثل مفهوم وكيل الذكاء الاصطناعي الأول، شائعة بسرعة وحصلت على تقييم قدره 1.4 مليار دولار، مما أثار موجة من Meme الذكاء الاصطناعي.

تُعتبر الأبحاث والمواضيع المتعلقة بـ AI+Web3 ساخنة بنفس القدر، من AI+Depin إلى AI Memecoin وصولًا إلى AI Agent و AI DAO الحالية، لقد أصبح الشعور بالـ FOMO غير قادر على مواكبة سرعة تبديل السرد الجديدة.

AI+Web3، هذا المزيج من المصطلحات المليء بالمال الساخن، والفرص، وأحلام المستقبل، لا يمكن إلا أن يُعتبر كزواج مرتب بين رأس المال، يبدو أنه من الصعب علينا أن نميز تحت هذا المظهر الباهر، هل هو ساحة المضاربين، أم هو ليلة انفجار الفجر؟

للإجابة على هذا السؤال، فإن أحد المفاتيح للتفكير هو: هل سيصبح الأمر أفضل بوجود الطرف الآخر؟ هل يمكن الاستفادة من نموذج الطرف الآخر؟ في هذه المقالة، نحاول فحص هذه الصورة: كيف يمكن أن يلعب Web3 دورًا في جميع جوانب تكنولوجيا الذكاء الاصطناعي، وما الجديد الذي يمكن أن يقدمه الذكاء الاصطناعي لـ Web3؟

الجزء 1 ما الفرص التي توفرها Web3 تحت كومة الذكاء الاصطناعي؟

قبل الخوض في هذا الموضوع، نحتاج إلى فهم كومة التكنولوجيا لنموذج الذكاء الاصطناعي الكبير:

اشرح العملية بألفاظ بسيطة: "النموذج الكبير" يشبه دماغ الإنسان، في المرحلة المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة، يحتاج إلى مراقبة واستيعاب كميات هائلة من المعلومات الخارجية لفهم العالم، وهذه هي مرحلة "جمع البيانات"؛ نظرًا لعدم امتلاك الكمبيوتر للحواس المتعددة للإنسان، تحتاج المعلومات الخارجية الكبيرة غير المعلّمة قبل التدريب إلى "معالجة مسبقة" لتحويلها إلى صيغة يمكن للكمبيوتر فهمها واستخدامها.

بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتباره كعملية تدريجية لفهم وتعلم الطفل للعالم الخارجي. إن معلمات النموذج تشبه قدرة اللغة التي تتكيف باستمرار خلال عملية تعلم الطفل. عندما يبدأ محتوى التعلم في التخصص، أو يتم التواصل مع الآخرين للحصول على ملاحظات وتصحيحات، يدخل ذلك في مرحلة "التعديل الدقيق" للنموذج الكبير.

عندما يكبر الطفل ويبدأ في الكلام، يمكنه فهم المعاني والتعبير عن مشاعره وأفكاره في المحادثات الجديدة، وهذه المرحلة مشابهة لـ"الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج التنبؤ وتحليل المدخلات الجديدة من اللغة والنص. يعبر الرضع عن مشاعرهم من خلال القدرة اللغوية، ويصفون الأشياء ويحلون المشكلات، وهذا مشابه أيضًا لكيفية تطبيق نماذج الذكاء الاصطناعي الكبيرة في مرحلة الاستدلال بعد الانتهاء من التدريب، على مجموعة متنوعة من المهام المحددة، مثل تصنيف الصور والتعرف على الصوت.

بينما وكيل الذكاء الاصطناعي أقرب إلى الشكل التالي للنموذج الكبير------ قادر على تنفيذ المهام بشكل مستقل والسعي لتحقيق أهداف معقدة، ليس فقط لديه القدرة على التفكير، ولكنه أيضًا قادر على التذكر والتخطيط، وقادر على استخدام الأدوات والتفاعل مع العالم.

في الوقت الراهن، وبالنظر إلى نقاط الألم الخاصة بالذكاء الاصطناعي في مختلف الطبقات، فقد بدأت Web3 في تشكيل نظام بيئي متعدد المستويات ومترابط، يشمل جميع مراحل عملية نموذج الذكاء الاصطناعي.

! الذكاء الاصطناعي+Web3: الأبراج والمربعات

1. الطبقة الأساسية: قوة الحوسبة والبيانات في Airbnb

قوة الحوسبة

حالياً، واحدة من أعلى التكاليف في الذكاء الاصطناعي هي القوة الحاسوبية والطاقة المطلوبة لتدريب النماذج ونماذج الاستدلال.

تتطلب LLAMA3 من Meta 16000 وحدة معالجة رسومات H100 من إنتاج NVIDIA (وهي وحدة معالجة رسومات رائدة مصممة خصيصًا لاحتياجات الذكاء الاصطناعي وأعباء العمل الحاسوبية عالية الأداء) لإكمال التدريب في غضون 30 يومًا. يتراوح سعر النسخة ذات 80 جيجابايت بين 30000 و40000 دولار، مما يتطلب استثمارًا في معدات الحوسبة (وحدات معالجة الرسومات + رقائق الشبكة) يتراوح بين 400 و700 مليون دولار، في حين أن التدريب الشهري يحتاج إلى استهلاك 1.6 مليار كيلو وات ساعة، مما يجعل نفقات الطاقة تصل إلى 20 مليون دولار شهريًا.

فيما يتعلق بفك الضغط عن قوة الحوسبة AI، فإنها تُعتبر من بين أولى المجالات التي تتقاطع فيها Web3 مع AI ------ DePin (شبكة البنية التحتية الفيزيائية اللامركزية). حالياً، قامت موقع بيانات DePin Ninja بإدراج أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة GPU تشمل io.net، Aethir، Akash، شبكة Render وغيرها.

تتمثل المنطق الرئيسي في: أن المنصة تسمح للأفراد أو الكيانات التي تمتلك موارد GPU غير المستخدمة بتقديم قدرة الحوسبة بطريقة لامركزية دون الحاجة إلى إذن، من خلال سوق عبر الإنترنت يشبه Uber أو Airbnb بين المشترين والبائعين، مما يزيد من استخدام موارد GPU غير المستغلة بشكل كافٍ، وبالتالي يحصل المستخدمون النهائيون على موارد حوسبة فعالة بتكلفة أقل؛ في الوقت نفسه، تضمن آلية التخزين أنه في حالة حدوث انتهاكات لآلية مراقبة الجودة أو انقطاع الشبكة، سيتم معاقبة مقدمي الموارد بشكل مناسب.

تتميز بما يلي:

  • تجميع موارد GPU غير المستخدمة: الجهة الموردة الرئيسية هي مراكز البيانات المستقلة المتوسطة والصغيرة من الأطراف الثالثة، ومشغلي موارد الطاقة الزائدة من مناجم العملات المشفرة، وأجهزة التعدين التي تعمل بآلية توافق PoS، مثل أجهزة تعدين FileCoin وETH. حالياً، هناك مشاريع تهدف إلى إطلاق أجهزة ذات عوائق دخول أقل، مثل exolab التي تستخدم أجهزة MacBook وiPhone وiPad المحلية لإنشاء شبكة طاقة لتشغيل استنتاج النماذج الكبيرة.

  • مواجهة سوق الذيل الطويل لقدرة الذكاء الاصطناعي:

a. سوق قوة الحوسبة اللامركزية من "الجانب الفني" هو الأنسب لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على قدرة معالجة البيانات التي توفرها مجموعات GPU الكبيرة جدًا، بينما تكون متطلبات أداء GPU لعمليات الاستدلال أقل نسبيًا، مثل تركيز Aethir على أعمال العرض ذات التأخير المنخفض وتطبيقات استدلال الذكاء الاصطناعي.

ب. لن يقوم طرف الطلب ذو القدرة الحاسوبية الصغيرة والمتوسطة بتدريب نموذج كبير خاص به بشكل منفرد، بل سيختار فقط تحسين وتعديل حول عدد قليل من النماذج الكبيرة الرائدة، وتتناسب هذه السيناريوهات بشكل طبيعي مع موارد القدرة الحاسوبية الموزعة غير المستخدمة.

  • الملكية اللامركزية: المعنى التكنولوجي للبلوكشين هو أن مالكي الموارد يحتفظون دائمًا بالتحكم في الموارد، ويمكنهم التعديل بشكل مرن وفقًا للاحتياجات، بينما يحصلون على العوائد.

بيانات

البيانات هي أساس الذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحساب سيكون بلا جدوى مثل الطفيل، وعلاقة البيانات بالنموذج تشبه المثل المعروف "المدخلات السيئة، المخرجات السيئة"، حيث تحدد كمية البيانات وجودة المدخلات الجودة النهائية لمخرجات النموذج. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات القدرة اللغوية للنموذج، وقدرته على الفهم، وحتى القيم الخاصة به وأدائه الإنساني. حاليًا، تركز صعوبات احتياجات البيانات للذكاء الاصطناعي بشكل رئيسي على الجوانب الأربعة التالية:

  • جوع البيانات: تعتمد نماذج الذكاء الاصطناعي على إدخال كميات هائلة من البيانات للتدريب. تظهر البيانات العامة أن OpenAI قد دربت GPT-4 بمعدل يصل إلى تريليون من المعلمات.

  • جودة البيانات: مع دمج الذكاء الاصطناعي في مختلف الصناعات، تفرض التوقيت، التنوع، احترافية البيانات العمودية، ومصادر البيانات الناشئة مثل مشاعر وسائل التواصل الاجتماعي متطلبات جديدة لجودتها.

  • قضايا الخصوصية والامتثال: تدرك الدول والشركات بشكل متزايد أهمية مجموعات البيانات عالية الجودة، وتقوم بفرض قيود على جمع البيانات.

  • تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تظهر المعلومات العامة أن أكثر من 30% من تكاليف البحث والتطوير في شركات الذكاء الاصطناعي تُستخدم لجمع البيانات الأساسية ومعالجتها.

حالياً، تتمثل حلول الويب 3 في الجوانب الأربعة التالية:

1، جمع البيانات: البيانات الحقيقية التي يتم جمعها مجاناً تتناقص بسرعة، وتزداد نفقات شركات الذكاء الاصطناعي على البيانات عاماً بعد عام. لكن هذه النفقات لم تعود بالنفع على المساهمين الحقيقيين في البيانات، حيث تستمتع المنصات بالكامل بقيمة الإبداع التي توفرها البيانات، مثل Reddit التي حققت إيرادات إجمالية قدرها 203 مليون دولار من خلال اتفاقيات ترخيص البيانات مع شركات الذكاء الاصطناعي.

تمكين المستخدمين الذين يسهمون حقًا من المشاركة في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة بتكاليف منخفضة من خلال الشبكات الموزعة وآليات التحفيز، هو رؤية Web3.

  • Grass هو طبقة بيانات وشبكة لامركزية، يمكن للمستخدمين من خلال تشغيل عقد Grass المساهمة في عرض النطاق الترددي الفائض وتدفق الإعادة لالتقاط البيانات الحية من جميع أنحاء الإنترنت، والحصول على مكافآت رمزية؛

  • قدمت Vana مفهوم فريد من نوعه لبركة سيولة البيانات (DLP)، حيث يمكن للمستخدمين رفع بياناتهم الخاصة (مثل سجلات الشراء، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، وغيرها) إلى DLP معينة، واختيار ما إذا كانوا يرغبون في منح تفويض باستخدام هذه البيانات لأطراف ثالثة معينة؛

  • في PublicAI، يمكن للمستخدمين استخدام #AI或#Web3 كعلامة تصنيف على X و @PublicAI لجمع البيانات.

  1. معالجة البيانات: خلال عملية معالجة بيانات الذكاء الاصطناعي، عادة ما تكون البيانات المجمعة صاخبة وتتضمن أخطاء، لذا يجب تنظيفها وتحويلها إلى صيغة قابلة للاستخدام قبل تدريب النموذج، مما يتطلب مهام متكررة مثل المعايرة، التصفية ومعالجة القيم المفقودة. هذه المرحلة هي واحدة من القلائل التي تتطلب جهدا بشرياً في صناعة الذكاء الاصطناعي، وقد أفرزت صناعة خاصة بالعلامات البيانية للبيانات، ومع ارتفاع متطلبات جودة البيانات من النماذج، زادت معايير دخول العلامات البيانية للبيانات، وهذه المهمة مناسبة بطبيعتها لآلية الحوافز اللامركزية في Web3.
  • حاليا، تفكر Grass و OpenLayer في إضافة هذه المرحلة الأساسية من بيانات التوصيف.

  • قدمت Synesis مفهوم "Train2earn"، مع التأكيد على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موضحة، أو تعليقات، أو أشكال إدخال أخرى.

  • مشروع تعليم البيانات Sapien يقوم بتحويل مهام العلامات إلى لعبة، ويتيح للمستخدمين رهن النقاط لكسب المزيد من النقاط.

3، خصوصية البيانات والأمان: من الضروري توضيح أن خصوصية البيانات والأمان هما مفهومان مختلفان. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي الأمان المعلومات من الوصول غير المصرح به أو التدمير أو السرقة. ومن ثم، فإن مزايا تقنيات الخصوصية في Web3 والسيناريوهات التطبيقية المحتملة تظهر في جانبين: (1) تدريب البيانات الحساسة؛ (2) التعاون في البيانات: يمكن لمالكي البيانات المتعددين المشاركة معًا في تدريب الذكاء الاصطناعي دون الحاجة لمشاركة البيانات الأصلية.

تشمل تقنيات الخصوصية الشائعة في Web3 الحالية:

  • بيئة تنفيذ موثوقة ( TEE ) ، مثل بروتوكول Super ؛

  • التشفير المتجانس بالكامل (FHE)، مثل BasedAI، Fhenix.io أو Inco Network؛

  • تقنية الإثبات الصفري (zk) ، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS ، تولد إثباتات صفرية لحركة مرور HTTPS ، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع الويب الخارجية بأمان دون الكشف عن المعلومات الحساسة.

ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، حيث لا يزال معظم المشاريع في مرحلة الاستكشاف، وأحد التحديات الحالية هو ارتفاع تكاليف الحساب، على سبيل المثال:

  • إطار zkML EZKL يحتاج إلى حوالي 80 دقيقة لتوليد إثبات نموذج 1M-nanoGPT.

  • وفقًا لبيانات Modulus Labs ، فإن تكاليف zkML أعلى بأكثر من 1000 مرة من الحسابات البحتة.

  1. تخزين البيانات: بعد الحصول على البيانات، نحتاج أيضًا إلى مكان لتخزين البيانات على السلسلة، بالإضافة إلى LLM الناتج عن استخدام هذه البيانات. كمشكلة محورية تتعلق بتوافر البيانات (DA)، كان معدل نقل البيانات 0.08MB قبل ترقية Danksharding على إيثريوم. وعادةً ما تتطلب نماذج الذكاء الاصطناعي التدريب والاستدلال في الوقت الحقيقي ما بين 50 إلى 100GB من نقل البيانات في الثانية. هذا الفارق الكبير في الحجم يجعل الحلول الحالية على السلسلة غير قادرة على مواجهة "تطبيقات الذكاء الاصطناعي كثيفة الموارد".
  • 0g.AI هو المشروع الرائد في هذه الفئة. إنه حل تخزين مركزي مصمم لتلبية احتياجات الأداء العالي في الذكاء الاصطناعي، وتشمل الميزات الرئيسية: الأداء العالي وقابلية التوسع، من خلال تقنيات التجزئة المتقدمة (Sharding) والترميز الخطي (Erasure Coding)، يدعم تحميل وتنزيل مجموعات البيانات الكبيرة بسرعة، حيث تصل سرعة نقل البيانات إلى حوالي 5 جيجابايت في الثانية.

الثانية، البرمجيات الوسيطة: تدريب النموذج والاستدلال

سوق النماذج مفتوحة المصدر اللامركزية

لم تختفِ المناقشة حول ما إذا كان يجب أن تكون نماذج الذكاء الاصطناعي مغلقة المصدر أم مفتوحة المصدر. الابتكار الجماعي الذي تجلبه المصادر المفتوحة لا يمكن مقارنته بالنماذج المغلقة المصدر.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • 4
  • مشاركة
تعليق
0/400
MEVVictimAlliancevip
· منذ 14 س
مجرد موجة أخرى من الشركات الكبرى تُستغل بغباء.
شاهد النسخة الأصليةرد0
BlockchainFoodievip
· 07-07 08:28
تقديم بعض المعلومات الجديدة عن الويب 3 مثل طاهٍ متميز في عالم التمويل اللامركزي... يبدو أن هذا المزيج من الذكاء الاصطناعي والويب 3 هو الوصفة المثالية بصراحة.
شاهد النسخة الأصليةرد0
PaperHandsCriminalvip
· 07-07 08:26
مرة أخرى تم خداع الناس لتحقيق الربح. كل ما يرتفع يتم نسخه.
شاهد النسخة الأصليةرد0
GateUser-00be86fcvip
· 07-07 08:23
لا يزال هناك شيء يستحق الاهتمام في مفهوم炒.
شاهد النسخة الأصليةرد0
  • تثبيت