Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có rào cản công nghệ cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại chỗ, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống điều khiển thống nhất. Kiến trúc hợp tác sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao và kiểm soát tài nguyên, nhưng đồng thời cũng gặp phải các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương thức chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân chia nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy để phối hợp thực hiện, nhằm vượt qua giới hạn tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút huấn luyện các tham số dữ liệu khác nhau được chia sẻ, cần phải khớp với trọng số mô hình.
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ;
Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, tăng khả năng thông lượng;
Phân tán tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ phân giải song song.
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như việc một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" phối hợp thực hiện nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều hoàn thành việc đào tạo theo cách này.
Phi tập trung đào tạo đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không cần một bộ điều phối trung tâm, thường thông qua giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong việc phân tách và đồng bộ thiết bị: Khó khăn trong việc phối hợp thiết bị phi tập trung, hiệu quả phân tách nhiệm vụ thấp;
Nút thắt hiệu quả giao tiếp: Giao tiếp mạng không ổn định, nút thắt đồng bộ gradient rõ rệt;
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không;
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, việc phân phối nhiệm vụ và cơ chế khôi phục bất thường phức tạp.
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các bối cảnh chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các bối cảnh tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối ôn hòa, phù hợp hơn làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
( Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Từ quan điểm về phương pháp đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên rất cao hoặc khó khăn trong hợp tác, chúng tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi các quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác như mô hình nguồn kín của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ### thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của việc đào tạo Phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể kích thích, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có đặc điểm tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị biệt, rất phù hợp cho việc đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
![Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-f0af7b28242215cca3784f0547830879.webp(
) Phi tập trung đào tạo các dự án kinh điển phân tích
Hiện nay, trong lĩnh vực đào tạo Phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng đi tiên phong trong nghiên cứu lý thuyết hiện nay; trong khi đó, Gensyn và Flock.io có con đường thực hiện tương đối rõ ràng, đã có thể thấy được những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
(# Prime Intellect: Người tiên phong trong mạng lưới hợp tác học tăng cường có thể xác minh được quá trình huấn luyện
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận phần thưởng tin cậy cho những đóng góp tính toán của họ. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
Một, Cấu trúc giao thức Prime Intellect và giá trị các mô-đun chính
![Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp(
Hai, Giải thích chi tiết về cơ chế khóa đào tạo Prime Intellect
PRIME-RL:Cấu trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khuôn khổ mô hình hóa và thực hiện nhiệm vụ được tùy chỉnh bởi Prime Intellect cho các tình huống đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị hình và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như một đối tượng thích ứng ưu tiên, tách rời cấu trúc giữa quá trình đào tạo, suy diễn và tải lên trọng số, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ một cách độc lập tại địa phương, và phối hợp với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC)Quan sát Đáng Tin Cậy & Kiểm Tra Địa Phương### là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó, nó hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành trình hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng huấn luyện mà không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có động lực.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, hạn chế băng thông và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho những thách thức thường gặp trong đào tạo phi tập trung như hạn chế về băng thông, thiết bị không đồng nhất và độ ổn định của nút. Kiến trúc của nó dựa trên phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL###Thư viện Giao tiếp Tập hợp Chính(là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống)như NCCL, Gloo(trên các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể độ dung nạp băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối cùng" cho cơ sở giao tiếp xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
Nút huấn luyện: thực hiện huấn luyện địa phương, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng cũng như hợp nhất chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tập hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khép kín khuyến khích xung quanh "hành vi đào tạo thực".
![AI đào tạo mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp(
Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn nhất thế giới được đào tạo bởi các nút phân phối phi tập trung, không cần tin cậy và bất đối xứng, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU dị thể trải rộng trên ba châu lục, sử dụng hoàn toàn bất đối xứng.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
5
Chia sẻ
Bình luận
0/400
ValidatorVibes
· 07-14 14:44
hmm huấn luyện trí tuệ nhân tạo phi tập trung... cuối cùng thì có người hiểu web3 được tạo ra cho cái gì thật sự
Xem bản gốcTrả lời0
PaperHandsCriminal
· 07-14 14:40
Lại là AI lại là Phi tập trung, với trình độ mua coin của tôi thì sớm đã bị chơi đùa với mọi người.
Xem bản gốcTrả lời0
RamenDeFiSurvivor
· 07-14 14:27
Khả năng tính toán tiêu tốn nhiều như vậy còn đi đến trung tâm?
Xem bản gốcTrả lời0
OnlyOnMainnet
· 07-14 14:26
Muốn có khả năng tính toán, ai mà không muốn chứ~
Xem bản gốcTrả lời0
GasBankrupter
· 07-14 14:20
Phí đào tạo lại sắp khiến tôi phá sản rồi, hix hix.
Cách mạng trong mô hình huấn luyện AI: Từ kiểm soát tập trung đến hợp tác Phi tập trung
Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có rào cản công nghệ cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại chỗ, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống điều khiển thống nhất. Kiến trúc hợp tác sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao và kiểm soát tài nguyên, nhưng đồng thời cũng gặp phải các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương thức chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân chia nhiệm vụ huấn luyện mô hình, sau đó phân phối đến nhiều máy để phối hợp thực hiện, nhằm vượt qua giới hạn tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như việc một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" phối hợp thực hiện nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều hoàn thành việc đào tạo theo cách này.
Phi tập trung đào tạo đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không cần một bộ điều phối trung tâm, thường thông qua giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các bối cảnh chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các bối cảnh tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối ôn hòa, phù hợp hơn làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
( Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Từ quan điểm về phương pháp đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên rất cao hoặc khó khăn trong hợp tác, chúng tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi các quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác như mô hình nguồn kín của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ### thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của việc đào tạo Phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể kích thích, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có đặc điểm tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị biệt, rất phù hợp cho việc đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
![Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-f0af7b28242215cca3784f0547830879.webp(
) Phi tập trung đào tạo các dự án kinh điển phân tích
Hiện nay, trong lĩnh vực đào tạo Phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng đi tiên phong trong nghiên cứu lý thuyết hiện nay; trong khi đó, Gensyn và Flock.io có con đường thực hiện tương đối rõ ràng, đã có thể thấy được những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
(# Prime Intellect: Người tiên phong trong mạng lưới hợp tác học tăng cường có thể xác minh được quá trình huấn luyện
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận phần thưởng tin cậy cho những đóng góp tính toán của họ. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
Một, Cấu trúc giao thức Prime Intellect và giá trị các mô-đun chính
![Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp(
Hai, Giải thích chi tiết về cơ chế khóa đào tạo Prime Intellect
PRIME-RL:Cấu trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khuôn khổ mô hình hóa và thực hiện nhiệm vụ được tùy chỉnh bởi Prime Intellect cho các tình huống đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị hình và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như một đối tượng thích ứng ưu tiên, tách rời cấu trúc giữa quá trình đào tạo, suy diễn và tải lên trọng số, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ một cách độc lập tại địa phương, và phối hợp với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC)Quan sát Đáng Tin Cậy & Kiểm Tra Địa Phương### là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó, nó hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành trình hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng huấn luyện mà không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có động lực.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, hạn chế băng thông và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho những thách thức thường gặp trong đào tạo phi tập trung như hạn chế về băng thông, thiết bị không đồng nhất và độ ổn định của nút. Kiến trúc của nó dựa trên phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL###Thư viện Giao tiếp Tập hợp Chính(là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống)như NCCL, Gloo(trên các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể độ dung nạp băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối cùng" cho cơ sở giao tiếp xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tập hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khép kín khuyến khích xung quanh "hành vi đào tạo thực".
![AI đào tạo mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung])https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp(
Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn nhất thế giới được đào tạo bởi các nút phân phối phi tập trung, không cần tin cậy và bất đối xứng, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU dị thể trải rộng trên ba châu lục, sử dụng hoàn toàn bất đối xứng.