Революция в парадигме обучения ИИ: от централизованного контроля к Децентрализация сотрудничеству

Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация совместным технологиям революции

В полной цепочке создания ценности ИИ модельное обучение является этапом с наибольшим потреблением ресурсов и самым высоким технологическим порогом, который напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе инференса, процесс обучения требует постоянного масштабного вычислительного ресурса, сложных процессов обработки данных и поддержки высокоинтенсивных алгоритмов оптимизации, что представляет собой настоящую «тяжелую промышленность» в строительстве ИИ-систем. С точки зрения архитектурных парадигм методы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, на котором сосредоточено внимание данной статьи.

Эволюция парадигмы AI-обучения: от централизованного контроля к Децентрализация совместной технической революции

Централизованное обучение является наиболее распространенным традиционным способом, при котором единая организация выполняет весь процесс обучения на локальном высокопроизводительном кластере, от аппаратного обеспечения, базового программного обеспечения, систем управления кластерами до всех компонентов учебного фрейма, которые координируются единой системой управления. Эта глубоко скоординированная архитектура позволяет оптимизировать эффективность разделения памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает её особенно подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контролируемых ресурсов, но также сталкиваясь с проблемами монополизации данных, барьеров для ресурсов, потребления энергии и рисков единой точки.

Распределённое обучение является основным методом обучения крупных моделей в настоящее время, его суть заключается в разбиении задачи обучения модели и распределении её на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Несмотря на физическое наличие «Децентрализация», в целом всё ещё контролируется централизованным учреждением, которое управляет распределением и синхронизацией, часто работает в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink, главный узел координирует все подзадачи. Основные методы включают:

  • Параллельные данные: каждый узел обучает разные данные, параметры общие, требуется сопоставление весов модели
  • Модельное параллелизм: размещение различных частей модели на разных узлах для достижения высокой масштабируемости;
  • Параллельные каналы: поэтапное последовательное выполнение, повышение пропускной способности;
  • Тензорное параллелизм: тонкая сегментация матричных вычислений, повышение степени параллелизма.

Распределенное обучение является комбинацией «централизованного управления + распределенного выполнения», что можно сравнить с тем, как один и тот же начальник дистанционно управляет работой сотрудников нескольких «офисов» для выполнения задач. В настоящее время почти все основные крупные модели обучаются именно таким образом.

Эволюция парадигмы AI-обучения: от централизованного контроля к Децентрализация кооперации технической революции

Децентрализация тренировки представляет собой более открытую и устойчивую к цензуре будущую траекторию. Его основная характеристика заключается в том, что: несколько недоверяющих друг другу узлов ( могут быть домашними компьютерами, облачными GPU или крайними устройствами ), которые совместно выполняют задачи обучения без центрального координатора, обычно через протоколы, управляющие распределением задач и сотрудничеством, и с помощью криптоинцентивного механизма, обеспечивающего честность вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:

  • Проблемы с гетерогенностью устройств и разделением задач: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач;
  • Бутылочное горлышко в эффективности связи: нестабильная сетевая связь, очевидное瓶颈 синхронизации градиентов;
  • Отсутствие доверенного выполнения: недостаток доверенной вычислительной среды затрудняет проверку того, действительно ли узлы участвуют в вычислениях;
  • Недостаток единой координации: нет центрального диспетчера, сложное распределение задач и механизм отката при сбоях.

Децентрализация тренировки может быть понята как: группа глобальных добровольцев, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но «действительно осуществимая крупномасштабная децентрализация тренировки» все еще представляет собой системную инженерную задачу, охватывающую такие аспекты, как системная архитектура, коммуникационные протоколы, криптографическая безопасность, экономические механизмы, валидация моделей и т.д., но возможность «совместной эффективности + стимула честности + правильного результата» все еще находится на стадии раннего прототипирования.

Федеративное обучение, как переходная форма между распределенной и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что подходит для сцен, акцентирующих внимание на соблюдении конфиденциальности, таких как здравоохранение и финансы (. Федеративное обучение обладает инженерной структурой распределенного обучения и способностью к локальной кооперации, одновременно имея преимущества распределенных данных в Децентрализация, но все же полагается на надежную координирующую сторону и не обладает полностью открытыми и антикоррупционными характеристиками. Это можно рассматривать как «контролируемую Децентрализация» в контексте соблюдения конфиденциальности, которая относительно мягка в задачах обучения, структурах доверия и механизмах связи, что делает ее более подходящей в качестве переходной архитектуры развертывания в промышленности.

) Децентрализация тренировки границы, возможности и реалистичные пути

С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших трудностей в сотрудничестве, она естественно не подходит для эффективного выполнения между гетерогенными, доверительными узлами. Например, обучение крупных моделей часто требует высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытых сетях; задачи с сильными ограничениями на конфиденциальность данных и суверенитет, такие как медицина, финансы и конфиденциальные данные ###, ограничены правовыми и этическими нормами и не могут быть открыто поделены; а задачи, которые не имеют основы для сотрудничества, такие как закрытые модели компаний или внутреннее прототипирование (, не имеют внешней мотивации для участия. Эти границы вместе составляют реальные ограничения для текущего Децентрализации обучения.

Но это не означает, что Децентрализация обучения является ложным понятием. На самом деле, в задачах с легкой структурой, легкостью параллелизации и возможностью стимулирования, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA-тонкая настройка, задачи после обучения, связанные с выравниванием поведения ), такие как RLHF, DPO (, краудсорсинг данных для обучения и аннотирования задач, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием крайних устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и терпимостью к гетерогенной вычислительной мощности, что делает их очень подходящими для совместного обучения через P2P сеть, протокол Swarm, распределенные оптимизаторы и т. д.

![Эволюция парадигмы AI-обучения: от централизованного контроля к Децентрализация-коллаборации техническая революция])https://img-cdn.gateio.im/webp-social/moments-f0af7b28242215cca3784f0547830879.webp(

) Децентрализация тренировки классических проектов анализа

В настоящее время в области децентрализованного обучения и федеративного обучения представительные блокчейн-проекты включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технической инновационности и сложности инженерной реализации Prime Intellect, Nous Research и Pluralis.ai предлагают множество оригинальных исследований в системной архитектуре и разработке алгоритмов, представляя текущие передовые направления теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть первоначальные инженерные успехи. В данной статье будут поочередно проанализированы основные технологии и инженерные архитектуры, стоящие за этими пятью проектами, а также будет дополнительно рассмотрены их различия и взаимодополняющие отношения в системе децентрализованного AI-обучения.

(# Prime Intellect: Пионеры кооперативных сетей с подкреплением, траектории обучения которых можно проверять

Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя каждому участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect надеется создать систему децентрализованного обучения ИИ с проверяемостью, открытостью и полной системой стимулов через три основных модуля: PRIME-RL, TOPLOC и SHARDCAST.

Од, структура стека протоколов Prime Intellect и ценность ключевых модулей

![Эволюция парадигмы AI-обучения: от централизованного контроля к Децентрализации сотрудничества техническая революция])https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp###

Два. Подробное объяснение ключевых механизмов обучения Prime Intellect

PRIME-RL: Декуплированная асинхронная архитектура задач обучения с подкреплением

PRIME-RL является фреймворком моделирования задач и выполнения, разработанным Prime Intellect для Децентрализация тренировочных сценариев, специально созданным для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного адаптивного объекта, структурно разъединяя процессы обучения, вывода и загрузки весов, что позволяет каждому узлу обучения независимо выполнять цикл задач локально и взаимодействовать через стандартизированные интерфейсы с механизмами проверки и агрегации. В отличие от традиционных процессов обучения с учителем, PRIME-RL лучше подходит для реализации гибкого обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки параллельного выполнения многозадачности и эволюции стратегий.

TOPLOC: Легковесный механизм верификации поведения обучения

TOPLOC###Доверенное Наблюдение и Проверка Политики-Локальности( является основной механизмом проверки обучаемости, предложенным Prime Intellect, который используется для определения того, завершил ли узел эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от перерасчета всей модели, а вместо этого осуществляет верификацию структур, анализируя локальную согласованность между «последовательностью наблюдений ↔ обновлением стратегии». Впервые он превращает поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевым нововведением для реализации распределения вознаграждений за обучение без доверия, предоставляя жизнеспособный путь для создания аудитируемой, стимулирующей сети децентрализованного совместного обучения.

SHARDCAST: Асинхронная агрегация весов и протокол распространения

SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный специально для асинхронных, ограниченных по пропускной способности и изменяющихся по состоянию узлов реальных сетевых сред. Он сочетает в себе механизм распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, достигая прогрессивного сходимости весов и многоверсионной эволюции. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно повышает масштабируемость и устойчивость к сбоям децентрализованного обучения, что является основой для построения стабильного консенсуса по весам и непрерывной итерации обучения.

OpenDiLoCo: Разреженная асинхронная коммуникационная структура

OpenDiLoCo является независимой реализацией и открытым исходным кодом фреймворка оптимизации связи, разработанным командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Он специально разработан для решения таких проблем, как ограниченная пропускная способность, гетерогенность устройств и нестабильность узлов, которые часто возникают в процессе децентрализованного обучения. Его архитектура основана на параллельной обработке данных, и с помощью построения разреженных топологических структур, таких как Ring, Expander и Small-World, избегает высоких затрат на связь от глобальной синхронизации, полагаясь только на локальных соседних узлов для выполнения совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и краевым устройствам стабильно участвовать в обучении, значительно повышая доступность глобального совместного обучения, что делает его одной из ключевых коммуникационных инфраструктур для построения сети децентрализованного обучения.

PCCL:Библиотека сопряженной связи

PCCL)Prime Collective Communication Library( является легковесной библиотекой коммуникаций, созданной Prime Intellect для Децентрализация AI тренировочной среды, предназначенной для решения проблем адаптации традиционных библиотек коммуникаций), таких как NCCL, Gloo(, в гетерогенных устройствах и низкоскоростных сетях. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, является базовым компонентом, поддерживающим асинхронные коммуникационные возможности протокола OpenDiLoCo. Он значительно повышает устойчивость пропускной способности сети для обучения и совместимость устройств, открывая «последнюю милю» коммуникационной инфраструктуры для построения действительно открытой, не требующей доверия сети совместного обучения.

Три, Сеть стимулов Prime Intellect и распределение ролей

Prime Intellect создала сеть обучения, не требующую разрешений, проверяемую и обладающую экономическим стимулом, позволяя любому участвовать в задачах и получать вознаграждение на основе реального вклада. Протокол функционирует на основе трех основных ролей:

  • Инициатор задачи: определение обучающей среды, начальной модели, функции вознаграждения и стандартов валидации
  • Узел обучения: выполнение локального обучения, отправка обновлений веса и наблюдательных траекторий
  • Узлы верификации: использование механизма TOPLOC для проверки достоверности тренировочного поведения и участия в расчете вознаграждений и агрегации стратегий.

Ядро процесса протокола включает в себя публикацию задач, обучение узлов, проверку траекторий, агрегацию весов )SHARDCAST( и распределение вознаграждений, что составляет полный цикл стимулов, основанный на «реальном обучении».

![Эволюция парадигмы AI-обучения: от централизованного контроля к Децентрализация совместной технологии])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp(

Четыре, INTELLECT-2: Первый выпущенный проверяемый децентрализованный обучающий модель

Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель обучения с подкреплением, созданная с помощью асинхронного, бездоверительного Децентрализация узлового сотрудничества, с масштабом параметров 32B. Модель INTELLECT-2 была обучена с использованием более 100 GPU гетерогенных узлов, расположенных на трех континентах, с полным асинхронным.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Поделиться
комментарий
0/400
ValidatorVibesvip
· 07-14 14:44
ммм децентрализованное обучение ИИ... наконец-то кто-то понимает, для чего был предназначен веб3, если честно
Посмотреть ОригиналОтветить0
PaperHandsCriminalvip
· 07-14 14:40
Снова ИИ и Децентрализация, с моим уровнем покупки токенов я бы уже был разыгран как лох.
Посмотреть ОригиналОтветить0
RamenDeFiSurvivorvip
· 07-14 14:27
Вычислительная мощность расходуется так сильно, а вы всё ещё идёте в центр?
Посмотреть ОригиналОтветить0
OnlyOnMainnetvip
· 07-14 14:26
Кто не хочет вычислительной мощности~
Посмотреть ОригиналОтветить0
GasBankruptervip
· 07-14 14:20
Скоро я разорюсь из-за тренировочных расходов, тьфу-тьфу.
Посмотреть ОригиналОтветить0
  • Закрепить