Децентралізація AI тренування: виклики та можливості: Prime Intellect відкриває нову парадигму

Децентралізація тренування: пошук святого грааля в сфері ШІ

У всьому ціннісному ланцюгу ІІ моделювання навчання є найбільш ресурсомістким та технічно складним етапом, який безпосередньо визначає межі можливостей моделі та реальні результати використання. У порівнянні з легким викликом на етапі інференції, процес навчання потребує постійних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що є справжньою "важкою промисловістю" у побудові ІІ-систем. З точки зору архітектурних парадигм, методи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, на якому ми зосередимося в цій статті.

Святий Грааль Crypto AI: Децентралізація навчання передового досвіду

Централізоване навчання є найпоширенішим традиційним способом, що виконується єдиною організацією в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, програмного забезпечення низького рівня, системи розподілу кластерів до всіх компонентів навчальної рамки, координується єдиною системою управління. Така глибока співпраця архітектури забезпечує максимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її надзвичайно підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, проте одночасно існують проблеми монополії на дані, бар'єрів для ресурсів, споживання енергії та ризиків єдиної точки.

Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одному комп'ютері. Хоча фізично має "Децентралізація" характер, проте загалом все ще контролюється централізованими організаціями для управління та синхронізації, зазвичай працює в середовищі швидкої локальної мережі, використовуючи технологію швидкісної міжмашинної зв'язки NVLink, де головний вузол координує виконання підзавдань. Основні методи включають:

  • Дані паралельно: кожен вузол навчає різні дані, параметри спільні, потрібно узгодити ваги моделі
  • Модельна паралельність: розгорнення різних частин моделі на різних вузлах для досягнення сильної масштабованості
  • Паралельне виконання: поетапне серійне виконання, підвищення пропускної здатності
  • Тензорне паралельне обчислення: тонке розділення матричних обчислень, підвищення ступеня паралелізму

Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співпрацею кількох співробітників "офісу" для виконання завдання. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA та інші ) реалізують навчання саме таким чином.

Святий Грааль Crypto AI: передові дослідження децентралізованого навчання

Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його ключовою характеристикою є: кілька взаємно недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або краєвими пристроями ), які спільно виконують завдання тренування без центрального координатора, зазвичай за допомогою протоколу для розподілу завдань та співпраці, а також за допомогою механізму криптостимулювання для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:

  • Гетерогенність пристроїв та складність розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
  • Вузьке місце в ефективності зв'язку: нестабільність мережевого зв'язку, очевидне вузьке місце в синхронізації градієнтів
  • Відсутність довіреного виконання: брак довіреного середовища виконання, важко перевірити, чи дійсно вузли беруть участь у обчисленнях.
  • Відсутність єдиного координування: немає центрального диспетчера, розподіл завдань, складний механізм відкату помилок

Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які по черзі вносять обчислювальну потужність для спільного тренування моделі, але "дійсно життєздатне масштабне децентралізоване тренування" досі є системним інженерним викликом, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделі та інші аспекти, але чи можливо "координаційно ефективно + стимулювати чесність + отримати правильні результати" все ще перебуває на ранній стадії прототипування.

Федеративне навчання, як перехідна форма між дистрибутивним і децентралізованим, підкреслює локальне збереження даних та централізовану агрегацію параметрів моделі, підходить для сцен, що акцентують увагу на відповідності до конфіденційності, таких як охорона здоров'я, фінанси (. Федеративне навчання має інженерну структуру дистрибутивного навчання та локальні коопераційні можливості, одночасно маючи переваги розподілу даних децентралізованого навчання, але все ще залежить від надійної координуючої сторони і не має повністю відкритих і антикорупційних характеристик. Це можна розглядати як "контрольоване децентралізоване" рішення в умовах дотримання конфіденційності, яке є відносно м'яким у навчальних завданнях, структурах довіри та механізмах зв'язку, і більше підходить як перехідна архітектура для промисловості.

![Святий Грааль Crypto AI: передові дослідження децентралізованого навчання])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(

Децентралізація тренування: межі, можливості та реальні шляхи

З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних сценаріях, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або великі труднощі в співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей зазвичай залежить від високої відеопам'яті, низької затримки та високошвидкісної пропускної здатності, що ускладнює їх ефективне розподіл та синхронізацію в відкритій мережі; завдання з сильними обмеженнями конфіденційності даних та суверенітету ), такі як охорона здоров'я, фінанси, конфіденційні дані (, обмежені законодавчими вимогами та етичними обмеженнями, не можуть бути відкрито поділені; а завдання ), що не мають основи для співпраці, такі як закриті моделі підприємств або внутрішнє навчання прототипів (, не мають зовнішнього стимулу для участі. Ці межі разом складають реальні обмеження сучасного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у структурно легких, простих для паралельного виконання та стимулюючих типах завдань, децентралізоване навчання демонструє явні перспективи застосування. Включаючи, але не обмежуючись: доопрацювання LoRA, завдання після навчання типу поведінкового вирівнювання ), як RLHF, DPO (, навчання та маркування даних через краудсорсинг, навчання невеликих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язність і толерантність до гетерогенної обчислювальної потужності, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.

![Святий Грааль Crypto AI: Децентралізація навчання на передовій])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(

Децентралізація тренування класичних проектів аналіз

Наразі у сфері Децентралізації навчання та федеративного навчання, представлені основні блокчейн проекти, такі як Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та проектуванні алгоритмів, представляючи сучасні теоретичні дослідження; тоді як реалізаційні шляхі Gensyn та Flock.io є відносно зрозумілими, можна вже побачити початковий прогрес у інженерії. У цій статті будуть послідовно розглянуті ключові технології та інженерна архітектура цих п'яти проектів, а також подальше обговорення їх відмінностей та взаємодоповнюючих зв'язків у системі Децентралізованого AI навчання.

) Prime Intellect: Тренувальна траєкторія, що підлягає верифікації, посилена навчальна кооперативна мережа-піонер

Prime Intellect прагне побудувати мережу навчання AI, що не потребує довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійну винагороду за свій обчислювальний внесок. Prime Intellect сподівається створити децентралізовану систему навчання AI з верифікацією, відкритістю та повністю реалізованою системою стимулів за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.

01、Структура протоколу Prime Intellect та цінність ключових модулів

![Святий Грааль Crypto AI: Децентралізація тренування на передньому краї досліджень]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(

)# 02, Докладний опис ключових механізмів тренування Prime Intellect

#PRIME-RL: Архітектура завдань декомпозованого асинхронного підкріплювального навчання

PRIME-RL є рамкою моделювання завдань та виконання, яку Prime Intellect налаштував для децентралізованих навчальних сценаріїв, спеціально розробленою для гетерогенних мереж та асинхронних учасників. Вона використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структурно декомпозуючи процеси навчання, інференції та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегування. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL краще підходить для реалізації гнучкого навчання в середовищах без централізованого розподілу, що знижує складність системи та закладає основу для підтримки паралельного виконання кількох завдань та еволюції стратегій.

#TOPLOC:Легка перевірка поведінки навчання

TOPLOC###Достовірне спостереження та перевірка локальності( є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а завершує верифікацію легковагової структури шляхом аналізу локальної узгодженості між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії в процесі навчання на перевірювані об'єкти, що є ключовим нововведенням для реалізації розподілу винагороди за навчання без необхідності довіри, надаючи здійсненний шлях для створення аудиторних, стимулюючих децентралізованих мереж співпраці.

#SHARDCAST: Асинхронна агрегація ваг та протокол поширення

SHARDCAST є протоколом розповсюдження та агрегації ваг, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених пропускною здатністю та змінних станів вузлів реальних мережевих середовищ. Він поєднує механізм розповсюдження gossip та стратегії локальної синхронізації, що дозволяє кільком вузлам продовжувати надсилати часткові оновлення в умовах несинхронізації, досягаючи прогресивної збіжності ваг та еволюції з кількома версіями. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до помилок децентралізованого навчання, що є основною основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.

#OpenDiLoCo:Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo є комунікаційним оптимізаційним фреймворком, незалежно реалізованим і відкритим командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто зустрічаються під час децентралізованого навчання. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологічних структур, таких як кільце, розширювач та малосвітові графи, що дозволяє уникнути високих витрат на комунікацію при глобальній синхронізації, покладаючись лише на сусідні локальні вузли для спільного навчання моделі. Поєднуючи асинхронне оновлення з механізмом відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних задачах, значно підвищуючи участь у глобальному колективному навчанні, і є однією з ключових комунікаційних інфраструктур для створення децентралізованих навчальних мереж.

#PCCL:Бібліотека синхронізації зв'язку

PCCL)Prime Collective Communication Library( є легковаговою комунікаційною бібліотекою, створеною Prime Intellect для децентралізованого AI тренувального середовища, яка має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек ), таких як NCCL, Gloo( в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронну комунікаційну здатність протоколу OpenDiLoCo. Він значно підвищує толерантність тренувальної мережі до пропускної здатності та сумісність пристроїв, прокладаючи "останню милю" комунікаційної основи для створення справжньої відкритої, бездоверчої мережі спільного навчання.

)# 03、Prime Intellect стимулююча мережа та розподіл ролей

Prime Intellect побудував мережу тренувань, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороди на основі реальних внесків. Протокол функціонує на основі трьох основних ролей:

  • Ініціатор завдання: визначення навчального середовища, початкової моделі, функції винагороди та стандартів валідації
  • Тренувальні вузли: виконання локального навчання, подання оновлень ваг та спостереження за траєкторією
  • Вузли перевірки: використання механізму TOPLOC для перевірки достовірності навчальної поведінки та участі в обчисленні винагороди та агрегації стратегій

Ядро протоколу включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію вагів ###SHARDCAST( та виплату винагород, що складає стимулюючий замкнутий цикл навколо "реальної навчальної поведінки".

![Святий Грааль Crypto AI: Децентралізація навчання на передовій])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(

)# 04、INTELLECT-2: перший перевіряємий децентралізований навчальний модельний випуск

Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перший у світі продукт, створений за допомогою

PRIME0.14%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 9
  • Репост
  • Поділіться
Прокоментувати
0/400
GasFeeCryervip
· 07-29 21:37
Це що, важка промисловість? Майнінг не важчий?
Переглянути оригіналвідповісти на0
OnChain_Detectivevip
· 07-29 21:35
гм... централізоване навчання ШІ? виявлено значний червоний прапор. аналіз шаблонів показує ризики єдиного пункту відмови, якщо чесно.
Переглянути оригіналвідповісти на0
AirdropHarvestervip
· 07-29 02:38
обдурювати людей, як лохів просто і все. Хто зрозуміє, той і заробить.
Переглянути оригіналвідповісти на0
RooftopReservervip
· 07-26 22:20
Яка велика вистава, вражаюче!
Переглянути оригіналвідповісти на0
Whale_Whisperervip
· 07-26 22:13
бик а ця хвиля навчальних компонентів не може не використовувати Q
Переглянути оригіналвідповісти на0
CodeSmellHuntervip
· 07-26 22:12
А ця річ, крім того, що спалює відеокарти, що ще може робити?
Переглянути оригіналвідповісти на0
ThatsNotARugPullvip
· 07-26 22:12
Поглянув і відчув, що це все пастка.
Переглянути оригіналвідповісти на0
DaisyUnicornvip
· 07-26 22:04
Вау~ Децентралізація тренування - це один безладний, але дуже дикий квітка.
Переглянути оригіналвідповісти на0
ApeWithNoFearvip
· 07-26 21:47
Майнінг споживає вже дуже багато, а тепер ще й палити електрику для ШІ?
Переглянути оригіналвідповісти на0
Дізнатися більше
  • Закріпити