Phi tập trung đào tạo: Khám phá chén thánh trong lĩnh vực AI
Trong chuỗi giá trị toàn bộ của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Xét từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại chỗ, hoàn thành tất cả quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được một hệ thống điều khiển thống nhất phối hợp hoạt động. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và hiệu quả của cơ chế chống lỗi đạt mức tối ưu, rất thích hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, có ưu điểm hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính của đào tạo mô hình lớn hiện nay, cốt lõi của nó là phân chia nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy để phối hợp thực hiện, nhằm vượt qua các nút thắt cổ chai về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng toàn bộ vẫn do các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ phụ. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ
Ống dẫn song song: Thực hiện tuần tự theo các giai đoạn, cải thiện thông lượng
Song song tensor: Phân đoạn tinh vi tính toán ma trận, nâng cao độ phân giải song song
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, gần như tất cả các mô hình lớn chủ đạo (GPT-4, Gemini, LLaMA và các mô hình khác ) đều được huấn luyện bằng cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp thực hiện nhiệm vụ đào tạo mà không cần một bộ điều phối trung tâm, thường thông qua giao thức thúc đẩy việc phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong việc đồng bộ hóa và phân chia thiết bị: Khó khăn trong việc phối hợp các thiết bị khác nhau, hiệu quả phân chia nhiệm vụ thấp.
Nút thắt hiệu suất giao tiếp: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng
Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh liệu các nút có thực sự tham gia tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung tâm, việc phân phát nhiệm vụ và cơ chế quay lại bất thường phức tạp
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang trong giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại địa phương, tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời mang lại lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, tương đối ôn hòa về nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp, phù hợp hơn như một kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với mọi loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành một cách hiệu quả giữa các nút dị thể và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có hạn chế mạnh về quyền riêng tư dữ liệu và chủ quyền ( như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác ( như mô hình nguồn đóng doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ) thì thiếu động lực tham gia bên ngoài. Những ranh giới này cùng cấu thành những hạn chế thực tế hiện tại của đào tạo phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu kỳ liên quan đến hành vi như RLHF, DPO(, nhiệm vụ đào tạo và chú thích dữ liệu theo hình thức cộng đồng, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ gắn kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất thích hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu hóa phân tán và các phương thức khác.
![Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá độc đáo về kiến trúc hệ thống và thiết kế thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
) Prime Intellect: Huấn luyện đường đi có thể xác minh được mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới huấn luyện AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia huấn luyện và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống huấn luyện AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
(# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị các mô-đun chính
![Cúp thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp###
02、Giải thích chi tiết cơ chế đào tạo Prime Intellect
#PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia bất đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, tách biệt cấu trúc quá trình đào tạo, suy diễn và tải lên trọng số, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ một cách độc lập tại địa phương, và phối hợp thông qua giao diện tiêu chuẩn hóa và cơ chế xác thực và tổng hợp. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
#TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC(Giám sát Đáng tin cậy & Kiểm tra Địa phương) là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó, nó hoàn thành xác minh cấu trúc nhẹ bằng cách phân tích các đường dẫn nhất quán cục bộ giữa "chuỗi quan sát↔cập nhật chiến lược". Đây là lần đầu tiên hành vi trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác minh, là đổi mới chính để đạt được phân phối phần thưởng đào tạo không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có động lực.
#SHARDCAST: Giao thức tổng hợp và truyền đạt trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế bất đồng bộ, hạn chế băng thông và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, thực hiện sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và lặp đào tạo liên tục.
#OpenDiLoCo: Khung giao tiếp bất đối xứng thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được đội ngũ Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên sự song song dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí giao tiếp cao do đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm địa phương để hoàn thành việc đào tạo hợp tác mô hình. Kết hợp với cập nhật bất đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
#PCCL:Thư viện truyền thông hợp tác
PCCL###Thư viện Giao tiếp Tập hợp Chính ( là một thư viện giao tiếp nhẹ được thiết kế riêng cho môi trường đào tạo AI phi tập trung của Prime Intellect, nhằm giải quyết các nút thắt thích ứng của các thư viện giao tiếp truyền thống ) như NCCL, Gloo( trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối" của cơ sở hạ tầng giao tiếp cho việc xây dựng một mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
)# 03、Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: xác định môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút huấn luyện: Thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và theo dõi quỹ đạo
Nút xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo, và tham gia vào việc tính toán phần thưởng và tổng hợp chiến lược.
Quy trình cốt lõi của thỏa thuận bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác thực quỹ đạo, hợp nhất trọng số (SHARDCAST) và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
![Chén Thánh của Crypto AI: Khám Phá Tiên Phong Đào Tạo Phi Tập Trung]###https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(
)# 04、INTELLECT-2:Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là sản phẩm đầu tiên trên thế giới được phát triển bởi异
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
9
Đăng lại
Chia sẻ
Bình luận
0/400
GasFeeCryer
· 07-29 21:37
Đây tính là ngành công nghiệp nặng gì chứ, Khai thác không phải còn mệt hơn sao?
Xem bản gốcTrả lời0
OnChain_Detective
· 07-29 21:35
hmm... đào tạo ai tập trung? phát hiện cờ đỏ lớn. phân tích mẫu cho thấy rủi ro điểm thất bại đơn lẻ, thật sự.
Xem bản gốcTrả lời0
AirdropHarvester
· 07-29 02:38
chơi đùa với mọi người就完事了 谁懂谁发财
Xem bản gốcTrả lời0
RooftopReserver
· 07-26 22:20
Hay thật, một sự kiện lớn đây!
Xem bản gốcTrả lời0
Whale_Whisperer
· 07-26 22:13
bull à, đợt huấn luyện này không thể không sử dụng Q
Xem bản gốcTrả lời0
CodeSmellHunter
· 07-26 22:12
À cái này ngoài việc đốt card đồ họa ra thì còn làm gì được nữa?
Xem bản gốcTrả lời0
ThatsNotARugPull
· 07-26 22:12
Quét một cái, cảm thấy đều là bẫy.
Xem bản gốcTrả lời0
DaisyUnicorn
· 07-26 22:04
Wow~ Phi tập trung đào tạo thật giống như một bông hoa hoang dã nhưng lộn xộn.
Xem bản gốcTrả lời0
ApeWithNoFear
· 07-26 21:47
Khai thác tiêu tốn đã rất nhiều, giờ lại đốt điện AI?
Phi tập trung AI đào tạo thách thức và cơ hội: Prime Intellect khởi xướng một mô hình mới
Phi tập trung đào tạo: Khám phá chén thánh trong lĩnh vực AI
Trong chuỗi giá trị toàn bộ của AI, huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Xét từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại chỗ, hoàn thành tất cả quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được một hệ thống điều khiển thống nhất phối hợp hoạt động. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và hiệu quả của cơ chế chống lỗi đạt mức tối ưu, rất thích hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, có ưu điểm hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính của đào tạo mô hình lớn hiện nay, cốt lõi của nó là phân chia nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy để phối hợp thực hiện, nhằm vượt qua các nút thắt cổ chai về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng toàn bộ vẫn do các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ phụ. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, gần như tất cả các mô hình lớn chủ đạo (GPT-4, Gemini, LLaMA và các mô hình khác ) đều được huấn luyện bằng cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp thực hiện nhiệm vụ đào tạo mà không cần một bộ điều phối trung tâm, thường thông qua giao thức thúc đẩy việc phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang trong giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại địa phương, tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời mang lại lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, tương đối ôn hòa về nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp, phù hợp hơn như một kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với mọi loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành một cách hiệu quả giữa các nút dị thể và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có hạn chế mạnh về quyền riêng tư dữ liệu và chủ quyền ( như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác ( như mô hình nguồn đóng doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ) thì thiếu động lực tham gia bên ngoài. Những ranh giới này cùng cấu thành những hạn chế thực tế hiện tại của đào tạo phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu kỳ liên quan đến hành vi như RLHF, DPO(, nhiệm vụ đào tạo và chú thích dữ liệu theo hình thức cộng đồng, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ gắn kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất thích hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu hóa phân tán và các phương thức khác.
![Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá độc đáo về kiến trúc hệ thống và thiết kế thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
) Prime Intellect: Huấn luyện đường đi có thể xác minh được mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới huấn luyện AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia huấn luyện và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống huấn luyện AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
(# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị các mô-đun chính
![Cúp thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp###
02、Giải thích chi tiết cơ chế đào tạo Prime Intellect
#PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia bất đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, tách biệt cấu trúc quá trình đào tạo, suy diễn và tải lên trọng số, cho phép mỗi nút đào tạo hoàn thành vòng lặp nhiệm vụ một cách độc lập tại địa phương, và phối hợp thông qua giao diện tiêu chuẩn hóa và cơ chế xác thực và tổng hợp. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
#TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC(Giám sát Đáng tin cậy & Kiểm tra Địa phương) là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó, nó hoàn thành xác minh cấu trúc nhẹ bằng cách phân tích các đường dẫn nhất quán cục bộ giữa "chuỗi quan sát↔cập nhật chiến lược". Đây là lần đầu tiên hành vi trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác minh, là đổi mới chính để đạt được phân phối phần thưởng đào tạo không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có động lực.
#SHARDCAST: Giao thức tổng hợp và truyền đạt trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế bất đồng bộ, hạn chế băng thông và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, thực hiện sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của việc đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và lặp đào tạo liên tục.
#OpenDiLoCo: Khung giao tiếp bất đối xứng thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được đội ngũ Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên sự song song dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí giao tiếp cao do đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm địa phương để hoàn thành việc đào tạo hợp tác mô hình. Kết hợp với cập nhật bất đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
#PCCL:Thư viện truyền thông hợp tác
PCCL###Thư viện Giao tiếp Tập hợp Chính ( là một thư viện giao tiếp nhẹ được thiết kế riêng cho môi trường đào tạo AI phi tập trung của Prime Intellect, nhằm giải quyết các nút thắt thích ứng của các thư viện giao tiếp truyền thống ) như NCCL, Gloo( trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối" của cơ sở hạ tầng giao tiếp cho việc xây dựng một mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
)# 03、Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của thỏa thuận bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác thực quỹ đạo, hợp nhất trọng số (SHARDCAST) và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
![Chén Thánh của Crypto AI: Khám Phá Tiên Phong Đào Tạo Phi Tập Trung]###https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(
)# 04、INTELLECT-2:Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là sản phẩm đầu tiên trên thế giới được phát triển bởi异