Проекты Web3 с концепцией ИИ стали объектами притяжения капитала на первом и втором рынках.
Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциальных поставок в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытых моделей и децентрализованного рынка AI-агентов.
ИИ в индустрии Web3 в основном применяется в цепочечном финансировании (криптоплатежи, трейдинг, анализ данных) и в помощи разработке.
Утилитарность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI, в свою очередь, может помочь Web3 выйти за пределы.
За последние два года развитие ИИ, кажется, было переведено на ускоренный режим. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал огромные волны в области Web3.
С помощью концепции ИИ финансирование крипторынка заметно возросло. По статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, среди которых основанная на искусственном интеллекте операционная система Zyber365 получила 100 миллионов долларов на раунде A.
Вторичный рынок стал более процветающим, данные с криптоагрегаторов показывают, что за короткий год общий рыночный капитал в области ИИ достиг 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительное влияние основных достижений в области ИИ очевидно, после выхода модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на одну из криптовалютных ниш, привлекающих капитал, Meme: первая концепция MemeCoin с ИИ агентом ------ GOAT быстро стала популярной и получила оценку в 1,4 миллиарда долларов, что вызвало бум AI Meme.
Исследования и обсуждения на тему AI+Web3 также становятся популярными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
AI+Web3, этот термин, наполненный горячими деньгами, трендами и фантазиями о будущем, неизбежно воспринимается как организованный брак капитала, и нам кажется, что трудно различить под этой шикарной оболочкой, действительно ли это арена спекулянтов или предрассветный момент взрыва?
Чтобы ответить на этот вопрос, ключевым размышлением является: станет ли от этого лучше для другой стороны? Можем ли мы извлечь выгоду из модели другой стороны? В этой статье мы пытаемся рассмотреть эту картину: как Web3 может играть роль на всех уровнях технологического стека ИИ, и что нового может принести ИИ для Web3?
Часть 1. Какие возможности есть в Web3 под стеком AI?
Перед тем как развивать эту тему, нам нужно понять технический стек больших моделей ИИ:
Объясните весь процесс на простом языке: «Большая модель» похожа на человеческий мозг, на ранней стадии этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество внешней информации, чтобы понять мир, это и есть этап «сбора» данных; поскольку компьютеры не обладают человеческими многосенсорными способностями, перед обучением большая несмоделированная информация извне должна быть преобразована через «предварительную обработку» в формат, который может понять и использовать компьютер.
После ввода данных ИИ создает модель с пониманием и предсказательной способностью через «обучение», что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает окружающий мир. Параметры модели подобны языковым способностям младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает делиться на категории или происходит общение с людьми, получая обратную связь и внося исправления, начинается этап «тонкой настройки» большой модели.
Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать свои чувства и мысли в новом диалоге. Этот этап похож на «вывод» в больших моделях ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают свои чувства, описывают объекты и решают проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ применяются в фазе вывода для выполнения различных конкретных задач, таких как классификация изображений, распознавание речи и т. д.
А AI Agent ближе к следующей форме большого модели — он способен самостоятельно выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также умением использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 начинает формировать многослойную, взаимосвязанную экосистему, охватывающую все этапы процессов ИИ-моделей.
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Мощность вычислений
В настоящее время одной из самых высоких затрат на ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и вывода.
Для обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, производимых NVIDIA (это высококлассный графический процессор, специально разработанный для задач искусственного интеллекта и высокопроизводительных вычислений), и для этого нужно 30 дней. Стоимость версии с 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (графические процессоры + сетевые чипы) в размере от 400 до 700 миллионов долларов. В то же время, для ежемесячного обучения требуется 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Для разрядки вычислительных мощностей ИИ это также одна из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время сайт данных DePin Ninja перечисляет более 1400 проектов, среди которых проекты, представляющие совместное использование вычислительных мощностей GPU, включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет физическим или юридическим лицам, обладающим неиспользуемыми GPU-ресурсами, вносить вычислительную мощность в децентрализованной форме без необходимости получения разрешения. Путем создания онлайн-рынка для продавцов и покупателей, подобного Uber или Airbnb, повышается коэффициент использования не полностью задействованных GPU-ресурсов, что позволяет конечным пользователям получать более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.
Его особенности заключаются в том,
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые небольшие и средние дата-центры третьих сторон, операторы избыточных вычислительных ресурсов крипто-майнинг и оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для выполнения больших моделей.
В условиях длинного хвоста рынка вычислительной мощности ИИ:
a. Децентрализованный рынок вычислительных мощностей на "техническом уровне" лучше подходит для этапов вывода. Обучение больше зависит от мощности обработки данных, обеспечиваемой сверхбольшими кластерами GPU, в то время как для вывода требования к вычислительной производительности GPU относительно ниже, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях ИИ для вывода.
b. На стороне «спроса» небольшие потребители вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и дообучение вокруг нескольких крупных моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованная собственность: Технологическое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над ресурсами, могут гибко настраивать их в зависимости от потребностей и при этом получать прибыль.
Данные
Данные являются основой ИИ. Если нет данных, вычисления будут бесполезны, как водоросли, а связь между данными и моделью подобна пословице "С мусором на входе – мусор на выходе", количество данных и качество ввода определяют конечное качество вывода модели. Для обучения текущих ИИ-моделей данные определяют языковые способности модели, ее понимание, а также мировоззрение и человечность. В настоящее время проблемы с потребностью ИИ в данных в основном сосредоточены на следующих четырех аспектах:
Жажда данных: Обучение моделей ИИ зависит от огромного объема данных. Согласно открытым данным, количество параметров, использованных для обучения GPT-4 от OpenAI, достигло триллионов.
Качество данных: С учетом интеграции ИИ с различными отраслями, новые требования к качеству данных возникли в связи с актуальностью, разнообразием, профессионализмом специализированных данных и новыми источниками данных, такими как анализ эмоций в социальных сетях.
Проблемы конфиденциальности и соблюдения норм: В настоящее время страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на НИОКР в AI-компаниях направляется на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: Бесплатно предоставляемые данные из реального мира быстро истощаются, и расходы AI-компаний на данные ежегодно растут. Однако эти расходы не возвращаются к истинным вкладчикам данных, так как платформы полностью наслаждаются созданием ценности, которую приносят данные, например, Reddit заработал в общей сложности 203 миллиона долларов, подписав соглашения о лицензировании данных с AI-компаниями.
Видение Web3 заключается в том, чтобы обеспечить участие пользователей, которые действительно вносят вклад, в создание ценности, связанной с данными, а также в получение более личных и ценных данных от пользователей с низкими затратами через распределенные сети и механизмы стимулов.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить неиспользуемую пропускную способность и релейный трафик для захвата реальных данных из всего Интернета и получать за это токены.
Vana представила уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать личные данные (такие как записи о покупках, привычки просмотра, активность в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;
В PublicAI пользователи могут использовать #AI或#Web3 как категориальную метку на X и @PublicAI для сбора данных.
Предобработка данных: В процессе обработки данных AI, поскольку собираемые данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный для использования формат перед обучением модели, что включает в себя стандартизацию, фильтрацию и обработку недостающих значений в повторяющихся задачах. Этот этап является одним из немногих ручных процессов в AI-индустрии, в результате чего возникла профессия аннотаторов данных. С повышением требований моделей к качеству данных также повышается порог вхождения для аннотаторов данных, и эта задача естественным образом подходит для децентрализованной системы вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотирования данных.
Synesis представила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотированию данных Sapien превращает задачи маркировки в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность данных и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительных данных, тогда как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество по данным: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь исходными данными.
Текущие относительно распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая чувствительную информацию.
Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в процессе исследования, а одной из текущих проблем является слишком высокая стоимость вычислений, например:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML более чем в 1000 раз выше, чем на чистые вычисления.
Хранение данных: После получения данных необходимо место для хранения их на цепочке, а также LLM, созданной с использованием этих данных. В центре проблемы доступности данных (DA) до обновления Данкашдинга в Эфириуме его пропускная способность составляла 0,08 МБ. Однако для обучения AI-моделей и их реального вывода часто требуется пропускная способность данных от 50 до 100 ГБ в секунду. Такой разрыв в порядке величины делает существующие решения на цепочке недостаточными при "ресурсоемких AI-приложениях".
0g.AI является представительным проектом в этой категории. Это централизованное решение для хранения данных, разработанное для высокопроизводительных требований AI, ключевые особенности включают: высокую производительность и масштабируемость, поддержку быстрой загрузки и скачивания крупных наборов данных с использованием технологий продвинутой шардирования (Sharding) и кодирования с исправлением ошибок (Erasure Coding), скорость передачи данных близка к 5 ГБ в секунду.
2. Промежуточное ПО: обучение и вывод модели
Децентрализованный рынок открытых моделей
Дебаты о том, должны ли модели ИИ быть закрытыми или открытыми, никогда не утихают. Коллективные инновации, которые приносит открытый исходный код, не могут сравниться с закрытыми моделями.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Лайков
Награда
8
4
Поделиться
комментарий
0/400
MEVVictimAlliance
· 12ч назад
Просто ещё одна волна крупных компаний, разыгрывающих людей как лохов.
Посмотреть ОригиналОтветить0
BlockchainFoodie
· 07-07 08:28
предлагая некоторую веб3 альфу как мишленовский шеф-повар в defi... эта комбинация ai+web3 выглядит как идеальный рецепт, не буду лукавить
Посмотреть ОригиналОтветить0
PaperHandsCriminal
· 07-07 08:26
Снова будут играть для лохов. Видишь рост - копируй.
Анализ структуры AI+Web3: возможности и вызовы от инфраструктуры до бизнес-моделей
AI+Web3: Башни и площади
Кратко
Проекты Web3 с концепцией ИИ стали объектами притяжения капитала на первом и втором рынках.
Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциальных поставок в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытых моделей и децентрализованного рынка AI-агентов.
ИИ в индустрии Web3 в основном применяется в цепочечном финансировании (криптоплатежи, трейдинг, анализ данных) и в помощи разработке.
Утилитарность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI, в свою очередь, может помочь Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ, кажется, было переведено на ускоренный режим. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал огромные волны в области Web3.
С помощью концепции ИИ финансирование крипторынка заметно возросло. По статистике, только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, среди которых основанная на искусственном интеллекте операционная система Zyber365 получила 100 миллионов долларов на раунде A.
Вторичный рынок стал более процветающим, данные с криптоагрегаторов показывают, что за короткий год общий рыночный капитал в области ИИ достиг 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительное влияние основных достижений в области ИИ очевидно, после выхода модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на одну из криптовалютных ниш, привлекающих капитал, Meme: первая концепция MemeCoin с ИИ агентом ------ GOAT быстро стала популярной и получила оценку в 1,4 миллиарда долларов, что вызвало бум AI Meme.
Исследования и обсуждения на тему AI+Web3 также становятся популярными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.
AI+Web3, этот термин, наполненный горячими деньгами, трендами и фантазиями о будущем, неизбежно воспринимается как организованный брак капитала, и нам кажется, что трудно различить под этой шикарной оболочкой, действительно ли это арена спекулянтов или предрассветный момент взрыва?
Чтобы ответить на этот вопрос, ключевым размышлением является: станет ли от этого лучше для другой стороны? Можем ли мы извлечь выгоду из модели другой стороны? В этой статье мы пытаемся рассмотреть эту картину: как Web3 может играть роль на всех уровнях технологического стека ИИ, и что нового может принести ИИ для Web3?
Часть 1. Какие возможности есть в Web3 под стеком AI?
Перед тем как развивать эту тему, нам нужно понять технический стек больших моделей ИИ:
Объясните весь процесс на простом языке: «Большая модель» похожа на человеческий мозг, на ранней стадии этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество внешней информации, чтобы понять мир, это и есть этап «сбора» данных; поскольку компьютеры не обладают человеческими многосенсорными способностями, перед обучением большая несмоделированная информация извне должна быть преобразована через «предварительную обработку» в формат, который может понять и использовать компьютер.
После ввода данных ИИ создает модель с пониманием и предсказательной способностью через «обучение», что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает окружающий мир. Параметры модели подобны языковым способностям младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает делиться на категории или происходит общение с людьми, получая обратную связь и внося исправления, начинается этап «тонкой настройки» большой модели.
Когда дети вырастают и начинают говорить, они могут понимать смысл и выражать свои чувства и мысли в новом диалоге. Этот этап похож на «вывод» в больших моделях ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают свои чувства, описывают объекты и решают проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ применяются в фазе вывода для выполнения различных конкретных задач, таких как классификация изображений, распознавание речи и т. д.
А AI Agent ближе к следующей форме большого модели — он способен самостоятельно выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием, а также умением использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 начинает формировать многослойную, взаимосвязанную экосистему, охватывающую все этапы процессов ИИ-моделей.
! AI+Web3: Башни и площади
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Мощность вычислений
В настоящее время одной из самых высоких затрат на ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и вывода.
Для обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, производимых NVIDIA (это высококлассный графический процессор, специально разработанный для задач искусственного интеллекта и высокопроизводительных вычислений), и для этого нужно 30 дней. Стоимость версии с 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (графические процессоры + сетевые чипы) в размере от 400 до 700 миллионов долларов. В то же время, для ежемесячного обучения требуется 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Для разрядки вычислительных мощностей ИИ это также одна из первых областей пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время сайт данных DePin Ninja перечисляет более 1400 проектов, среди которых проекты, представляющие совместное использование вычислительных мощностей GPU, включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в том, что платформа позволяет физическим или юридическим лицам, обладающим неиспользуемыми GPU-ресурсами, вносить вычислительную мощность в децентрализованной форме без необходимости получения разрешения. Путем создания онлайн-рынка для продавцов и покупателей, подобного Uber или Airbnb, повышается коэффициент использования не полностью задействованных GPU-ресурсов, что позволяет конечным пользователям получать более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов будут подвергнуты соответствующим санкциям.
Его особенности заключаются в том,
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые небольшие и средние дата-центры третьих сторон, операторы избыточных вычислительных ресурсов крипто-майнинг и оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для выполнения больших моделей.
В условиях длинного хвоста рынка вычислительной мощности ИИ:
a. Децентрализованный рынок вычислительных мощностей на "техническом уровне" лучше подходит для этапов вывода. Обучение больше зависит от мощности обработки данных, обеспечиваемой сверхбольшими кластерами GPU, в то время как для вывода требования к вычислительной производительности GPU относительно ниже, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях ИИ для вывода.
b. На стороне «спроса» небольшие потребители вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и дообучение вокруг нескольких крупных моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные являются основой ИИ. Если нет данных, вычисления будут бесполезны, как водоросли, а связь между данными и моделью подобна пословице "С мусором на входе – мусор на выходе", количество данных и качество ввода определяют конечное качество вывода модели. Для обучения текущих ИИ-моделей данные определяют языковые способности модели, ее понимание, а также мировоззрение и человечность. В настоящее время проблемы с потребностью ИИ в данных в основном сосредоточены на следующих четырех аспектах:
Жажда данных: Обучение моделей ИИ зависит от огромного объема данных. Согласно открытым данным, количество параметров, использованных для обучения GPT-4 от OpenAI, достигло триллионов.
Качество данных: С учетом интеграции ИИ с различными отраслями, новые требования к качеству данных возникли в связи с актуальностью, разнообразием, профессионализмом специализированных данных и новыми источниками данных, такими как анализ эмоций в социальных сетях.
Проблемы конфиденциальности и соблюдения норм: В настоящее время страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на их сбор.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на НИОКР в AI-компаниях направляется на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Видение Web3 заключается в том, чтобы обеспечить участие пользователей, которые действительно вносят вклад, в создание ценности, связанной с данными, а также в получение более личных и ценных данных от пользователей с низкими затратами через распределенные сети и механизмы стимулов.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить неиспользуемую пропускную способность и релейный трафик для захвата реальных данных из всего Интернета и получать за это токены.
Vana представила уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать личные данные (такие как записи о покупках, привычки просмотра, активность в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;
В PublicAI пользователи могут использовать #AI或#Web3 как категориальную метку на X и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотирования данных.
Synesis представила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотированию данных Sapien превращает задачи маркировки в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие относительно распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая чувствительную информацию.
Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в процессе исследования, а одной из текущих проблем является слишком высокая стоимость вычислений, например:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML более чем в 1000 раз выше, чем на чистые вычисления.
2. Промежуточное ПО: обучение и вывод модели
Децентрализованный рынок открытых моделей
Дебаты о том, должны ли модели ИИ быть закрытыми или открытыми, никогда не утихают. Коллективные инновации, которые приносит открытый исходный код, не могут сравниться с закрытыми моделями.