Проекты Web3 с концепцией ИИ становятся привлекательными для инвестиций на первичном и вторичном рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциального предложения в долгом хвосте — через данные, хранение и вычисления; одновременно создавая открытую модель и децентрализованный рынок для AI-агентов.
Основное применение ИИ в индустрии Web3 - это финансовые операции на блокчейне (криптоплатежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизованному AI, в то время как AI может помочь Web3 выйти за рамки.
За последние два года развитие ИИ похоже на нажатие кнопки ускорения, и этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал мощные волны в Web3 на другом берегу.
С поддержкой концепции ИИ финансирование в крипторынке заметно оживилось по сравнению с замедлением. Статистика показывает, что только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок стал более процветающим, данные о комбинировании криптовалют показывают, что всего за чуть более года общая рыночная капитализация в области ИИ достигла 48,5 миллиарда долларов, а 24-часовой объем торговли близок к 8,6 миллиарда долларов; очевидные преимущества, связанные с достижениями основных технологий ИИ, привели к тому, что после выпуска текстово-видео модели Sora от OpenAI средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на один из сегментов криптовалюты, генерирующих доходы, Meme: первая концепция MemeCoin с AI Agent — GOAT быстро стала популярной и достигла оценки в 1,4 миллиарда долларов, успешно инициировав бум AI Meme.
Исследования и темы, связанные с AI+Web3, также на пике популярности: от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO. Чувство FOMO уже не успевает за скоростью смены новых нарративов.
AI+Web3, это сочетание терминов, наполненное горячими деньгами, трендами и будущими фантазиями, неизбежно воспринимается как брак по расчету, устроенный капиталом. Нам кажется, что трудно различить под этой роскошной оболочкой, действительно ли это арена спекулянтов или же предрассветное время взрыва?
Чтобы ответить на этот вопрос, важным размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту структуру, опираясь на предыдущие достижения: как Web3 может играть роль на каждом этапе технологического стека AI и что нового AI может принести Web3?
Часть 1. Какие возможности предоставляет Web3 в контексте стека ИИ?
Перед тем как развивать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря более простым языком, весь процесс можно описать так: «Большая модель» похожа на человеческий мозг. На ранних этапах этот мозг принадлежит только что появившемуся на свет ребенку, который должен наблюдать и усваивать огромное количество информации из окружающего мира, чтобы понять этот мир. Это и есть стадия «сбора» данных. Поскольку компьютеры не обладают такими человеческими чувствами, как зрение и слух, перед обучением внешняя масштабная неразмеченная информация должна быть преобразована через «предобработку» в формат информации, который компьютер может понять и использовать.
После ввода данных ИИ через «обучение» создает модель, обладающую способностью к пониманию и предсказанию, что можно рассматривать как процесс, в котором младенец постепенно понимает и учится взаимодействовать с окружающим миром. Параметры модели подобны языковым навыкам младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает разделяться на дисциплины или происходит общение с людьми, получая обратную связь и корректируя свои знания, это переходит в этап «тонкой настройки» большой модели.
Дети, постепенно растя и научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап аналогичен «выводам» больших моделей ИИ, которые способны предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ в стадии вывода на различных специфических задачах, таких как классификация изображений, распознавание речи и т. д.
А агент ИИ стремится к следующей форме большого модели — способной самостоятельно выполнять задачи и достигать сложных целей, обладая не только способностью к мышлению, но и памятью, планированием, а также способностью использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на проблемы AI на различных уровнях, Web3 в настоящее время начинает формироваться многоуровневая, взаимосвязанная экосистема, охватывающая все этапы процесса моделей AI.
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Хешрейт
В настоящее время одной из самых высоких затрат на ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Одним из примеров является то, что для Meta LLAMA3 требуется 16000 GPU H100, производимых NVIDIA (это графический процессор высшего класса, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками). Обучение занимает 30 дней. Цена на 80-гигабайтную версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, в то время как ежемесячное обучение требует потребления 1.6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Освобождение вычислительных мощностей ИИ является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). На данный момент статистические сайты уже представили более 1400 проектов, среди которых проекты, представляющие собой совместное использование мощностей GPU, включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в следующем: платформа позволяет отдельным лицам или организациям, имеющим свободные GPU-ресурсы, вносить свой вычислительный потенциал в децентрализованном порядке без необходимости получения разрешений, создавая онлайн-рынок, подобный Uber или Airbnb, для покупателей и продавцов, что повышает уровень использования недостаточно задействованных GPU-ресурсов, в результате чего конечные пользователи получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов подвергаются соответствующим наказаниям.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние дата-центры, операторы избытка вычислительных мощностей крипто-майнинга и т.д., а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для выполнения больших моделей.
В условиях длинного хвоста рынка вычислительных мощностей ИИ:
a. "С технической точки зрения" децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от возможностей обработки данных, предоставляемых супербольшими кластерами GPU, в то время как для вывода требования к вычислительной производительности GPU относительно невысоки, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях для ИИ.
b. «С точки зрения спроса» небольшие и средние потребители вычислительных мощностей не будут самостоятельно обучать свои большие модели, а лишь выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованное владение: Техническое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко настраивая их в зависимости от спроса и одновременно получая доход.
Данные
Данные — это основа ИИ. Без данных вычисления, как водоросли на поверхности, совершенно бесполезны, а связь между данными и моделью подобна пословице "Мусор на входе, мусор на выходе". Количество данных и качество ввода определяют конечное качество вывода модели. Для обучения современных ИИ моделей данные определяют языковые способности модели, способности к пониманию, даже мировоззрение и гуманизацию. В настоящее время проблемы потребности в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: Обучение AI моделей зависит от большого объема входных данных. Открытые данные показывают, что количество параметров, на которых OpenAI обучал GPT-4, достигло триллионов.
Качество данных: с учетом интеграции ИИ с различными отраслями, актуальность данных, разнообразие данных, профессионализм специализированных данных, а также внедрение новых источников данных, таких как эмоции в социальных сетях, выдвигают новые требования к их качеству.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на研发 у AI компаний идет на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: возможность бесплатно предоставлять собранные данные из реального мира стремительно истощается, расходы AI-компаний на данные растут из года в год. Но в то же время эти расходы не возвращаются к реальным вкладчикам данных, и платформы полностью наслаждаются созданием ценности, которую приносят данные, как, например, Reddit, который получил 203 миллиона долларов дохода благодаря подписанию соглашений о лицензировании данных с AI-компаниями.
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, связанной с данными, и получать более личные и ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулов — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой свободный трафик и релейный трафик для захвата实时数据 из всего интернета и получать токен-вознаграждение;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать свои личные данные (такие как записи покупок, привычки серфинга, активности в социальных сетях и т.д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве категории и @PublicAI для сбора данных.
Предобработка данных: в процессе обработки данных ИИ, поскольку собранные данные обычно содержат шум и ошибки, их необходимо очистить и преобразовать в пригодный формат до обучения модели, что включает стандартизацию, фильтрацию и обработку отсутствующих значений. Этот этап является одним из немногих ручных процессов в индустрии ИИ, из которого возникла профессия аннотатора данных. С повышением требований моделей к качеству данных, порог вхождения для аннотаторов данных также увеличивается, и эта задача естественно подходит для децентрализованной системы вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотации данных.
Synesis предложил концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждения, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотации данных Sapien превращает задачи по разметке в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность и безопасность данных — это два разных концепта. Конфиденциальность данных касается обработки чувствительной информации, тогда как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные области их применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество по данным: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие распространенные технологии конфиденциальности Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевого знания (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательств нулевого знания для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о действиях, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, текущая проблема заключается в слишком высоких вычислительных затратах, некоторые примеры:
Фреймворк zkML EZKL требует около 80 минут
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
15 Лайков
Награда
15
6
Поделиться
комментарий
0/400
HodlKumamon
· 3ч назад
Данные говорят сами за себя~ Эта рыночная активность в 40% уже превышает порог тревожности медведей, мяу.
Посмотреть ОригиналОтветить0
GateUser-bd883c58
· 3ч назад
赶紧 войти в позицию囤点 AI Токен
Посмотреть ОригиналОтветить0
GasFeeBarbecue
· 3ч назад
Вполне понятно, рано или поздно ИИ должен будет добавиться в блокчейн.
Посмотреть ОригиналОтветить0
SchroedingerAirdrop
· 3ч назад
Это всё? Концепция ИИ уже исчерпана.
Посмотреть ОригиналОтветить0
MidnightTrader
· 3ч назад
Ах, если есть перспектива, то это всего лишь концепция, которая в конечном итоге исчезнет.
Слияние ИИ и Web3: Применение и возможности децентрализованных технологий на различных этапах искусственного интеллекта
AI+Web3: Башни и площади
ТЛ; ДОКТОР
Проекты Web3 с концепцией ИИ становятся привлекательными для инвестиций на первичном и вторичном рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциального предложения в долгом хвосте — через данные, хранение и вычисления; одновременно создавая открытую модель и децентрализованный рынок для AI-агентов.
Основное применение ИИ в индустрии Web3 - это финансовые операции на блокчейне (криптоплатежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизованному AI, в то время как AI может помочь Web3 выйти за рамки.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ похоже на нажатие кнопки ускорения, и этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал мощные волны в Web3 на другом берегу.
С поддержкой концепции ИИ финансирование в крипторынке заметно оживилось по сравнению с замедлением. Статистика показывает, что только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок стал более процветающим, данные о комбинировании криптовалют показывают, что всего за чуть более года общая рыночная капитализация в области ИИ достигла 48,5 миллиарда долларов, а 24-часовой объем торговли близок к 8,6 миллиарда долларов; очевидные преимущества, связанные с достижениями основных технологий ИИ, привели к тому, что после выпуска текстово-видео модели Sora от OpenAI средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на один из сегментов криптовалюты, генерирующих доходы, Meme: первая концепция MemeCoin с AI Agent — GOAT быстро стала популярной и достигла оценки в 1,4 миллиарда долларов, успешно инициировав бум AI Meme.
Исследования и темы, связанные с AI+Web3, также на пике популярности: от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO. Чувство FOMO уже не успевает за скоростью смены новых нарративов.
AI+Web3, это сочетание терминов, наполненное горячими деньгами, трендами и будущими фантазиями, неизбежно воспринимается как брак по расчету, устроенный капиталом. Нам кажется, что трудно различить под этой роскошной оболочкой, действительно ли это арена спекулянтов или же предрассветное время взрыва?
Чтобы ответить на этот вопрос, важным размышлением для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту структуру, опираясь на предыдущие достижения: как Web3 может играть роль на каждом этапе технологического стека AI и что нового AI может принести Web3?
Часть 1. Какие возможности предоставляет Web3 в контексте стека ИИ?
Перед тем как развивать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря более простым языком, весь процесс можно описать так: «Большая модель» похожа на человеческий мозг. На ранних этапах этот мозг принадлежит только что появившемуся на свет ребенку, который должен наблюдать и усваивать огромное количество информации из окружающего мира, чтобы понять этот мир. Это и есть стадия «сбора» данных. Поскольку компьютеры не обладают такими человеческими чувствами, как зрение и слух, перед обучением внешняя масштабная неразмеченная информация должна быть преобразована через «предобработку» в формат информации, который компьютер может понять и использовать.
После ввода данных ИИ через «обучение» создает модель, обладающую способностью к пониманию и предсказанию, что можно рассматривать как процесс, в котором младенец постепенно понимает и учится взаимодействовать с окружающим миром. Параметры модели подобны языковым навыкам младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает разделяться на дисциплины или происходит общение с людьми, получая обратную связь и корректируя свои знания, это переходит в этап «тонкой настройки» большой модели.
Дети, постепенно растя и научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап аналогичен «выводам» больших моделей ИИ, которые способны предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ в стадии вывода на различных специфических задачах, таких как классификация изображений, распознавание речи и т. д.
А агент ИИ стремится к следующей форме большого модели — способной самостоятельно выполнять задачи и достигать сложных целей, обладая не только способностью к мышлению, но и памятью, планированием, а также способностью использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на проблемы AI на различных уровнях, Web3 в настоящее время начинает формироваться многоуровневая, взаимосвязанная экосистема, охватывающая все этапы процесса моделей AI.
! AI+Web3: Башни и площади
Один. Базовый уровень: вычислительная мощность и данные Airbnb
Хешрейт
В настоящее время одной из самых высоких затрат на ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Одним из примеров является то, что для Meta LLAMA3 требуется 16000 GPU H100, производимых NVIDIA (это графический процессор высшего класса, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками). Обучение занимает 30 дней. Цена на 80-гигабайтную версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, в то время как ежемесячное обучение требует потребления 1.6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Освобождение вычислительных мощностей ИИ является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). На данный момент статистические сайты уже представили более 1400 проектов, среди которых проекты, представляющие собой совместное использование мощностей GPU, включают io.net, Aethir, Akash, Render Network и другие.
Основная логика заключается в следующем: платформа позволяет отдельным лицам или организациям, имеющим свободные GPU-ресурсы, вносить свой вычислительный потенциал в децентрализованном порядке без необходимости получения разрешений, создавая онлайн-рынок, подобный Uber или Airbnb, для покупателей и продавцов, что повышает уровень использования недостаточно задействованных GPU-ресурсов, в результате чего конечные пользователи получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов подвергаются соответствующим наказаниям.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние дата-центры, операторы избытка вычислительных мощностей крипто-майнинга и т.д., а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для выполнения больших моделей.
В условиях длинного хвоста рынка вычислительных мощностей ИИ:
a. "С технической точки зрения" децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от возможностей обработки данных, предоставляемых супербольшими кластерами GPU, в то время как для вывода требования к вычислительной производительности GPU относительно невысоки, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях для ИИ.
b. «С точки зрения спроса» небольшие и средние потребители вычислительных мощностей не будут самостоятельно обучать свои большие модели, а лишь выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные — это основа ИИ. Без данных вычисления, как водоросли на поверхности, совершенно бесполезны, а связь между данными и моделью подобна пословице "Мусор на входе, мусор на выходе". Количество данных и качество ввода определяют конечное качество вывода модели. Для обучения современных ИИ моделей данные определяют языковые способности модели, способности к пониманию, даже мировоззрение и гуманизацию. В настоящее время проблемы потребности в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Жажда данных: Обучение AI моделей зависит от большого объема входных данных. Открытые данные показывают, что количество параметров, на которых OpenAI обучал GPT-4, достигло триллионов.
Качество данных: с учетом интеграции ИИ с различными отраслями, актуальность данных, разнообразие данных, профессионализм специализированных данных, а также внедрение новых источников данных, таких как эмоции в социальных сетях, выдвигают новые требования к их качеству.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на研发 у AI компаний идет на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, связанной с данными, и получать более личные и ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулов — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой свободный трафик и релейный трафик для захвата实时数据 из всего интернета и получать токен-вознаграждение;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать свои личные данные (такие как записи покупок, привычки серфинга, активности в социальных сетях и т.д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим лицам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве категории и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность включения этапа аннотации данных.
Synesis предложил концепцию «Train2earn», подчеркивая качество данных; пользователи могут получать вознаграждения, предоставляя аннотированные данные, комментарии или другие формы ввода.
Проект по аннотации данных Sapien превращает задачи по разметке в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие распространенные технологии конфиденциальности Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевого знания (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательств нулевого знания для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о действиях, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, текущая проблема заключается в слишком высоких вычислительных затратах, некоторые примеры: