Анализ структуры AI+Web3: возможности и вызовы от инфраструктуры до бизнес-моделей

AI+Web3: Башни и площади

Кратко

  1. Проекты Web3 с концепцией ИИ стали объектами притяжения капитала на первом и втором рынках.

  2. Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциальных поставок в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытых моделей и децентрализованного рынка AI-агентов.

  3. ИИ в индустрии Web3 в основном применяется в цепочечном финансировании (криптоплатежи, трейдинг, анализ данных) и в помощи разработке.

  4. Утилитарность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI, в свою очередь, может помочь Web3 выйти за пределы.

! AI+Web3: Башни и площади

Введение

За последние два года развитие ИИ, кажется, было переведено на ускоренный режим. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал огромные волны в области Web3.

С помощью концепции ИИ финансирование крипторынка заметно возросло. По статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, среди которых основанная на искусственном интеллекте операционная система Zyber365 получила 100 миллионов долларов на раунде A.

Вторичный рынок стал более процветающим, данные с криптоагрегаторов показывают, что за короткий год общий рыночный капитал в области ИИ достиг 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительное влияние основных достижений в области ИИ очевидно, после выхода модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на одну из криптовалютных ниш, привлекающих капитал, Meme: первая концепция MemeCoin с ИИ агентом ------ GOAT быстро стала популярной и получила оценку в 1,4 миллиарда долларов, что вызвало бум AI Meme.

Исследования и обсуждения на тему AI+Web3 также становятся популярными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.

AI+Web3, этот термин, наполненный горячими деньгами, трендами и фантазиями о будущем, неизбежно воспринимается как организованный брак капитала, и нам кажется, что трудно различить под этой шикарной оболочкой, действительно ли это арена спекулянтов или предрассветный момент взрыва?

Чтобы ответить на этот вопрос, ключевым размышлением является: станет ли от этого лучше для другой стороны? Можем ли мы извлечь выгоду из модели другой стороны? В этой статье мы пытаемся рассмотреть эту картину: как Web3 может играть роль на всех уровнях технологического стека ИИ, и что нового может принести ИИ для Web3?

Часть 1. Какие возможности есть в Web3 под стеком AI?

Перед тем как развивать эту тему, нам нужно понять технический стек больших моделей ИИ:

Объясните весь процесс на простом языке: «Большая модель» похожа на человеческий мозг, на ранней стадии этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество внешней информации, чтобы понять мир, это и есть этап «сбора» данных; поскольку компьютеры не обладают человеческими многосенсорными способностями, перед обучением большая несмоделированная информация извне должна быть преобразована через «предварительную обработку» в формат, который может понять и использовать компьютер.

После ввода данных ИИ создает модель с пониманием и предсказательной способностью через «обучение», что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает окружающий мир. Параметры модели подобны языковым способностям младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает делиться на категории или происходит общение с людьми, получая обратную связь и внося исправления, начинается этап «тонкой настройки» большой модели.

Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать свои чувства и мысли в новом диалоге. Этот этап похож на «вывод» в больших моделях ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают свои чувства, описывают объекты и решают проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ применяются в фазе вывода для выполнения различных конкретных задач, таких как классификация изображений, распознавание речи и т. д.

А AI Agent ближе к следующей форме большого модели — он способен самостоятельно выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также умением использовать инструменты для взаимодействия с миром.

В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 начинает формировать многослойную, взаимосвязанную экосистему, охватывающую все этапы процессов ИИ-моделей.

! AI+Web3: Башни и площади

Один. Базовый уровень: вычислительная мощность и данные Airbnb

Мощность вычислений

В настоящее время одной из самых высоких затрат на ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и вывода.

Для обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, производимых NVIDIA (это высококлассный графический процессор, специально разработанный для задач искусственного интеллекта и высокопроизводительных вычислений), и для этого нужно 30 дней. Стоимость версии с 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (графические процессоры + сетевые чипы) в размере от 400 до 700 миллионов долларов. В то же время, для ежемесячного обучения требуется 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.

Для разрядки вычислительных мощностей ИИ это также одна из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время сайт данных DePin Ninja перечисляет более 1400 проектов, среди которых проекты, представляющие совместное использование вычислительных мощностей GPU, включают io.net, Aethir, Akash, Render Network и другие.

Основная логика заключается в том, что платформа позволяет физическим или юридическим лицам, обладающим неиспользуемыми GPU-ресурсами, вносить вычислительную мощность в децентрализованной форме без необходимости получения разрешения. Путем создания онлайн-рынка для продавцов и покупателей, подобного Uber или Airbnb, повышается коэффициент использования не полностью задействованных GPU-ресурсов, что позволяет конечным пользователям получать более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.

Его особенности заключаются в том,

  • Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые небольшие и средние дата-центры третьих сторон, операторы избыточных вычислительных ресурсов крипто-майнинг и оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для выполнения больших моделей.

  • В условиях длинного хвоста рынка вычислительной мощности ИИ:

a. Децентрализованный рынок вычислительных мощностей на "техническом уровне" лучше подходит для этапов вывода. Обучение больше зависит от мощности обработки данных, обеспечиваемой сверхбольшими кластерами GPU, в то время как для вывода требования к вычислительной производительности GPU относительно ниже, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях ИИ для вывода.

b. На стороне «спроса» небольшие потребители вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и дообучение вокруг нескольких крупных моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.

  • Децентрализованная собственность: Технологическое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над ресурсами, могут гибко настраивать их в зависимости от потребностей и при этом получать прибыль.

Данные

Данные являются основой ИИ. Если нет данных, вычисления будут бесполезны, как водоросли, а связь между данными и моделью подобна пословице "С мусором на входе – мусор на выходе", количество данных и качество ввода определяют конечное качество вывода модели. Для обучения текущих ИИ-моделей данные определяют языковые способности модели, ее понимание, а также мировоззрение и человечность. В настоящее время проблемы с потребностью ИИ в данных в основном сосредоточены на следующих четырех аспектах:

  • Жажда данных: Обучение моделей ИИ зависит от огромного объема данных. Согласно открытым данным, количество параметров, использованных для обучения GPT-4 от OpenAI, достигло триллионов.

  • Качество данных: С учетом интеграции ИИ с различными отраслями, новые требования к качеству данных возникли в связи с актуальностью, разнообразием, профессионализмом специализированных данных и новыми источниками данных, такими как анализ эмоций в социальных сетях.

  • Проблемы конфиденциальности и соблюдения норм: В настоящее время страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.

  • Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на НИОКР в AI-компаниях направляется на сбор и обработку базовых данных.

В настоящее время решения web3 проявляются в следующих четырех аспектах:

  1. Сбор данных: Бесплатно предоставляемые данные из реального мира быстро истощаются, и расходы AI-компаний на данные ежегодно растут. Однако эти расходы не возвращаются к истинным вкладчикам данных, так как платформы полностью наслаждаются созданием ценности, которую приносят данные, например, Reddit заработал в общей сложности 203 миллиона долларов, подписав соглашения о лицензировании данных с AI-компаниями.

Видение Web3 заключается в том, чтобы обеспечить участие пользователей, которые действительно вносят вклад, в создание ценности, связанной с данными, а также в получение более личных и ценных данных от пользователей с низкими затратами через распределенные сети и механизмы стимулов.

  • Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить неиспользуемую пропускную способность и релейный трафик для захвата реальных данных из всего Интернета и получать за это токены.

  • Vana представила уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать личные данные (такие как записи о покупках, привычки просмотра, активность в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;

  • В PublicAI пользователи могут использовать #AI或#Web3 как категориальную метку на X и @PublicAI для сбора данных.

  1. Предобработка данных: В процессе обработки данных AI, поскольку собираемые данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный для использования формат перед обучением модели, что включает в себя стандартизацию, фильтрацию и обработку недостающих значений в повторяющихся задачах. Этот этап является одним из немногих ручных процессов в AI-индустрии, в результате чего возникла профессия аннотаторов данных. С повышением требований моделей к качеству данных также повышается порог вхождения для аннотаторов данных, и эта задача естественным образом подходит для децентрализованной системы вознаграждений Web3.
  • В настоящее время Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотирования данных.

  • Synesis представила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.

  • Проект по аннотированию данных Sapien превращает задачи маркировки в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.

  1. Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность данных и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительных данных, тогда как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество по данным: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь исходными данными.

Текущие относительно распространенные технологии конфиденциальности в Web3 включают:

  • Доверенная исполняемая среда ( TEE ), например, Super Protocol;

  • Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;

  • Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая чувствительную информацию.

Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в процессе исследования, а одной из текущих проблем является слишком высокая стоимость вычислений, например:

  • Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.

  • Согласно данным Modulus Labs, затраты на zkML более чем в 1000 раз выше, чем на чистые вычисления.

  1. Хранение данных: После получения данных необходимо место для хранения их на цепочке, а также LLM, созданной с использованием этих данных. В центре проблемы доступности данных (DA) до обновления Данкашдинга в Эфириуме его пропускная способность составляла 0,08 МБ. Однако для обучения AI-моделей и их реального вывода часто требуется пропускная способность данных от 50 до 100 ГБ в секунду. Такой разрыв в порядке величины делает существующие решения на цепочке недостаточными при "ресурсоемких AI-приложениях".
  • 0g.AI является представительным проектом в этой категории. Это централизованное решение для хранения данных, разработанное для высокопроизводительных требований AI, ключевые особенности включают: высокую производительность и масштабируемость, поддержку быстрой загрузки и скачивания крупных наборов данных с использованием технологий продвинутой шардирования (Sharding) и кодирования с исправлением ошибок (Erasure Coding), скорость передачи данных близка к 5 ГБ в секунду.

2. Промежуточное ПО: обучение и вывод модели

Децентрализованный рынок открытых моделей

Дебаты о том, должны ли модели ИИ быть закрытыми или открытыми, никогда не утихают. Коллективные инновации, которые приносит открытый исходный код, не могут сравниться с закрытыми моделями.

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • 4
  • Поделиться
комментарий
0/400
MEVVictimAlliancevip
· 12ч назад
Просто ещё одна волна крупных компаний, разыгрывающих людей как лохов.
Посмотреть ОригиналОтветить0
BlockchainFoodievip
· 07-07 08:28
предлагая некоторую веб3 альфу как мишленовский шеф-повар в defi... эта комбинация ai+web3 выглядит как идеальный рецепт, не буду лукавить
Посмотреть ОригиналОтветить0
PaperHandsCriminalvip
· 07-07 08:26
Снова будут играть для лохов. Видишь рост - копируй.
Посмотреть ОригиналОтветить0
GateUser-00be86fcvip
· 07-07 08:23
Инвестировать в концепции все еще имеет смысл.
Посмотреть ОригиналОтветить0
  • Закрепить