Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюжку ШІ, навчання моделей є етапом з найбільшими витратами ресурсів та найвищими технічними бар'єрами, що безпосередньо визначає верхню межу можливостей моделі та реальний ефект застосування. На відміну від легковагових викликів на етапі висновку, процес навчання потребує безперервних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки високоефективних алгоритмів оптимізації, що є справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найбільш поширеним традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері та включає всі етапи навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи розподілу кластерів до всіх компонентів навчальної рамки, які координуються єдиною системою управління. Ця архітектура глибокої координації забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів захисту від відмов, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini, з перевагами у вигляді високої ефективності та контрольованих ресурсів, але в той же час існують проблеми з монополією на дані, бар'єрами для ресурсів, енергоспоживанням та ризиком єдиного пункту відмови.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає у розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично це має «розподілені» характеристики, але в цілому все ще контролюється централізованою організацією для управління та синхронізації, зазвичай працює в умовах високошвидкісної локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує всі підзавдання. Основні методи включають:
Паралельність даних: кожен вузол навчає різні дані, параметри діляться, потрібно узгодити ваги моделі
Модельна паралельність: розміщення різних частин моделі на різних вузлах для досягнення високої розширюваності;
Паралельні канали: поетапне серійне виконання, підвищення пропускної здатності;
Тензорна паралельність: деталізація поділу матричних обчислень, підвищення паралельної гранулярності.
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же начальник дистанційно керує співробітниками в кількох "офісах", щоб виконати завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.
Децентралізація навчання означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька недовірливих вузлів виконують навчальні завдання без центрального координатора, зазвичай через протокол, що забезпечує розподіл завдань і співпрацю, а також за допомогою механізму криптостимулювання, що гарантує добросовісність внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв та складнощі розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань;
Вузьке місце в ефективності зв'язку: нестабільність мережевої комунікації, помітне вузьке місце в синхронізації градієнтів;
Відсутність довіреного виконання: відсутність довіреного середовища виконання, важко перевірити, чи дійсно вузли беруть участь у обчисленнях;
Відсутність єдиної координації: немає центрального диспетчера, розподіл завдань, механізм відкату помилок складний.
Децентралізоване навчання можна розуміти як: групу глобальних волонтерів, які спільно вносять обчислювальну потужність для навчання моделі, але "справді здійсненне велике децентралізоване навчання" все ще є системною інженерною задачею, що включає в себе системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але чи можливо "кооперативно ефективно + стимулювати чесність + отримати правильні результати" ще перебуває на етапі раннього прототипування.
Федеративне навчання як перехідна форма між розподіленим і Децентралізація, підкреслює локальне збереження даних, централізовану агрегацію параметрів моделі, підходить для сцен, де акцентується на відповідності конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної кооперації, одночасно маючи переваги розподіленого навчання з точки зору даних, але все ще залежить від надійної координаційної сторони і не має повністю відкритих та антицензурних характеристик. Можна вважати це "контрольованою децентралізацією" у сценах відповідності конфіденційності, з відносно помірними завданнями навчання, структурами довіри та механізмами зв'язку, що більше підходить для промислових перехідних архітектур.
Панорамна таблиця порівняння парадигм навчання ШІ( Технічна архітектура × Довіра та стимулювання × Особливості застосування)
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних ситуаціях, через складність структури завдання, надзвичайно високі вимоги до ресурсів або великі труднощі в співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто потребує великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженнями суверенітету підлягають юридичним вимогам та етичним обмеженням, що унеможливлює відкритий обмін; а завдання, що не мають основи для співпраці, страждають від браку зовнішнього мотиваційного залучення. Ці межі разом становлять реальні обмеження децентралізованого навчання сьогодні.
Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, у структурно легких, простих для паралелізації та мотивуючих типах завдань децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: LoRA доопрацювання, завдання після навчання з вирівнюванням поведінки, навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сцени кооперативного навчання з участю периферійних пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язність і терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори та ін.
Загальний огляд адаптації навчальних завдань Децентралізація
Децентралізація тренування класичних проектів аналіз
Наразі в сфері децентралізованого навчання та федеративного навчання, представницькі блокчейн-проєкти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, що представляє передові напрямки сучасних теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно зрозумілими, вже видно первинний прогрес у інженерному виконанні. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури цих п'яти проєктів, а також буде додатково розглянуто їхні відмінності та взаємодоповнюючі стосунки в децентралізованій системі навчання ШІ.
Prime Intellect: Тренувальна траєкторія, що підлягає перевірці, посилена навчальна кооперативна мережа-попередник
Prime Intellect прагне побудувати мережу навчання ШІ без необхідності довіри, щоб кожен міг брати участь у навчанні та отримувати надійні винагороди за свій обчислювальний внесок. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з можливістю верифікації, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
Одне. Структура та ключові модулі цінності Prime Intellect.
Два. Детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура завдань роздільного асинхронного навчання з підкріпленням
PRIME-RL є рамкою моделювання та виконання завдань, кастомізованою Prime Intellect для Децентралізація тренувальних сценаріїв, спеціально розробленою для гетерогенних мереж та асинхронних учасників. Вона використовує підкріплене навчання як пріоритетний адаптаційний об'єкт, структурно декомпонуючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації гнучкого навчання в середовищах без централізованого планування, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки в навчанні
TOPLOC є основним механізмом навчальної верифікації, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегій на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а завершує валідацію легковаговою структурою через аналіз локальних узгоджених траєкторій між "послідовністю спостережень↔оновленням стратегій". Вперше він перетворює траєкторії поведінки під час навчання на об'єкти, що підлягають верифікації, що є ключовою інновацією для реалізації бездоказового розподілу навчальних винагород, і забезпечує здійсненний шлях для побудови аудиторських та стимулюючих децентралізованих навчальних мереж.
SHARDCAST: асинхронний агрегат ваги та протокол розповсюдження
SHARDCAST є протоколом вагового розповсюдження та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених пропускною здатністю та змінних станів вузлів у реальних мережевих умовах. Він поєднує механізм розповсюдження gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам постійно надсилати часткові оновлення в умовах асинхронності, досягаючи поступової конвергенції ваги та еволюції декількох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та відмовостійкість децентралізованого навчання, що є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo:Скудна асинхронна комунікаційна рамка
OpenDiLoCo є незалежною реалізацією та відкритим вихідним кодом фреймворку оптимізації комунікацій, розробленого командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто виникають під час децентралізованого навчання. Його архітектура базується на паралелізмі даних, через побудову розріджених топологій, таких як кільце, експандер, малий світ, щоб уникнути високих витрат на комунікацію при глобальній синхронізації, покладаючись лише на локальних сусідніх вузлів для завершення кооперативного навчання моделі. Поєднуючи асинхронні оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі у глобальному кооперативному навчанні, що є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
PCCL:Бібліотека координаційного зв'язку
PCCL є легковаговою комунікаційною бібліотекою, спеціально розробленою Prime Intellect для децентралізованого середовища навчання AI, що має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні комунікаційні можливості протоколу OpenDiLoCo. Він суттєво підвищує толерантність до пропускної здатності та сумісність пристроїв мережі навчання, прокладаючи "останній кілометр" комунікаційної бази для створення справжньої відкритої, безтрастової мережі спільного навчання.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання без дозволу, що підлягає перевірці та має економічні стимули, що дозволяє кожному брати участь у завданнях та отримувати винагороди на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначити тренувальне середовище, початкову модель, функцію винагороди та критерії валідації
Тренувальний вузол: виконання локального навчання, подача оновлень ваг та спостережуваних траєкторій
Вузли перевірки: використання механізму TOPLOC для перевірки достовірності навчальної поведінки та участь у розрахунку винагород і агрегації стратегій
Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, формуючи стимулюючий замкнутий цикл навколо "реальної навчальної поведінки".
Чотири, INTELLECT-2: випуск першої перевіреної децентралізованої навчальної моделі
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель посиленого навчання, яка була навчена за допомогою асинхронних, бездоверчий децентралізованих вузлів. Кількість параметрів досягає 32B. Модель INTELLECT-2 була навчена за допомогою понад 100 гетерогенних вузлів GPU, розташованих на трьох континентах, з використанням повністю асинхронної архітектури, тривалість навчання перевищила 400 годин, що продемонструвало життєздатність та стабільність асинхронної кооперативної мережі. Ця модель не лише є проривом у продуктивності, але також є першим системним втіленням парадигми "навчання як консенсус", що була запропонована Prime Intellect. INTELLECT-2 інтегрує основні протоколи, такі як PRIME-RL, TOPLOC та SHARDCAST.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
14 лайків
Нагородити
14
6
Репост
Поділіться
Прокоментувати
0/400
SerumSqueezer
· 07-30 16:37
Грав у Web3 вже чотири роки, інтуїція дуже точна, шифрувальні фанатики, але також трохи безнадійно, що в цьому колі так багато обману для дурнів.
Хочу залишити коментар китайською, і дотримуватимусь твоїх вимог.
Хіба що потрібно покрутити AI, чому так складно?
Переглянути оригіналвідповісти на0
BridgeTrustFund
· 07-29 19:07
Приходьте до Обчислювальної потужності, щоб вгамувати спрагу? Не зовсім розумію.
Переглянути оригіналвідповісти на0
ChainBrain
· 07-27 23:36
Навіщо такі високі витрати на навчання, Обчислювальна потужність зрештою від кого?
Переглянути оригіналвідповісти на0
GraphGuru
· 07-27 23:32
Схоже, що децентралізація справді не лише слова.
Переглянути оригіналвідповісти на0
ForumMiningMaster
· 07-27 23:28
А це, обчислювальна потужність знову до місяця піде~
Переглянути оригіналвідповісти на0
DefiPlaybook
· 07-27 23:27
Згідно з аналізом, 93,7% Обчислювальної потужності зосереджено у трьох найбільших постачальників хмарних послуг, Децентралізація є нагальною.
Еволюція парадигми навчання ШІ: технологічна революція від централізації до Децентралізація
Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюжку ШІ, навчання моделей є етапом з найбільшими витратами ресурсів та найвищими технічними бар'єрами, що безпосередньо визначає верхню межу можливостей моделі та реальний ефект застосування. На відміну від легковагових викликів на етапі висновку, процес навчання потребує безперервних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки високоефективних алгоритмів оптимізації, що є справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найбільш поширеним традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері та включає всі етапи навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи розподілу кластерів до всіх компонентів навчальної рамки, які координуються єдиною системою управління. Ця архітектура глибокої координації забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів захисту від відмов, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini, з перевагами у вигляді високої ефективності та контрольованих ресурсів, але в той же час існують проблеми з монополією на дані, бар'єрами для ресурсів, енергоспоживанням та ризиком єдиного пункту відмови.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає у розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично це має «розподілені» характеристики, але в цілому все ще контролюється централізованою організацією для управління та синхронізації, зазвичай працює в умовах високошвидкісної локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує всі підзавдання. Основні методи включають:
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же начальник дистанційно керує співробітниками в кількох "офісах", щоб виконати завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.
Децентралізація навчання означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька недовірливих вузлів виконують навчальні завдання без центрального координатора, зазвичай через протокол, що забезпечує розподіл завдань і співпрацю, а також за допомогою механізму криптостимулювання, що гарантує добросовісність внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізоване навчання можна розуміти як: групу глобальних волонтерів, які спільно вносять обчислювальну потужність для навчання моделі, але "справді здійсненне велике децентралізоване навчання" все ще є системною інженерною задачею, що включає в себе системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але чи можливо "кооперативно ефективно + стимулювати чесність + отримати правильні результати" ще перебуває на етапі раннього прототипування.
Федеративне навчання як перехідна форма між розподіленим і Децентралізація, підкреслює локальне збереження даних, централізовану агрегацію параметрів моделі, підходить для сцен, де акцентується на відповідності конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної кооперації, одночасно маючи переваги розподіленого навчання з точки зору даних, але все ще залежить від надійної координаційної сторони і не має повністю відкритих та антицензурних характеристик. Можна вважати це "контрольованою децентралізацією" у сценах відповідності конфіденційності, з відносно помірними завданнями навчання, структурами довіри та механізмами зв'язку, що більше підходить для промислових перехідних архітектур.
Панорамна таблиця порівняння парадигм навчання ШІ( Технічна архітектура × Довіра та стимулювання × Особливості застосування)
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних ситуаціях, через складність структури завдання, надзвичайно високі вимоги до ресурсів або великі труднощі в співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто потребує великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженнями суверенітету підлягають юридичним вимогам та етичним обмеженням, що унеможливлює відкритий обмін; а завдання, що не мають основи для співпраці, страждають від браку зовнішнього мотиваційного залучення. Ці межі разом становлять реальні обмеження децентралізованого навчання сьогодні.
Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, у структурно легких, простих для паралелізації та мотивуючих типах завдань децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: LoRA доопрацювання, завдання після навчання з вирівнюванням поведінки, навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сцени кооперативного навчання з участю периферійних пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язність і терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори та ін.
Загальний огляд адаптації навчальних завдань Децентралізація
Децентралізація тренування класичних проектів аналіз
Наразі в сфері децентралізованого навчання та федеративного навчання, представницькі блокчейн-проєкти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, що представляє передові напрямки сучасних теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно зрозумілими, вже видно первинний прогрес у інженерному виконанні. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури цих п'яти проєктів, а також буде додатково розглянуто їхні відмінності та взаємодоповнюючі стосунки в децентралізованій системі навчання ШІ.
Prime Intellect: Тренувальна траєкторія, що підлягає перевірці, посилена навчальна кооперативна мережа-попередник
Prime Intellect прагне побудувати мережу навчання ШІ без необхідності довіри, щоб кожен міг брати участь у навчанні та отримувати надійні винагороди за свій обчислювальний внесок. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з можливістю верифікації, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
Одне. Структура та ключові модулі цінності Prime Intellect.
Два. Детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура завдань роздільного асинхронного навчання з підкріпленням
PRIME-RL є рамкою моделювання та виконання завдань, кастомізованою Prime Intellect для Децентралізація тренувальних сценаріїв, спеціально розробленою для гетерогенних мереж та асинхронних учасників. Вона використовує підкріплене навчання як пріоритетний адаптаційний об'єкт, структурно декомпонуючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації гнучкого навчання в середовищах без централізованого планування, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки в навчанні
TOPLOC є основним механізмом навчальної верифікації, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегій на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а завершує валідацію легковаговою структурою через аналіз локальних узгоджених траєкторій між "послідовністю спостережень↔оновленням стратегій". Вперше він перетворює траєкторії поведінки під час навчання на об'єкти, що підлягають верифікації, що є ключовою інновацією для реалізації бездоказового розподілу навчальних винагород, і забезпечує здійсненний шлях для побудови аудиторських та стимулюючих децентралізованих навчальних мереж.
SHARDCAST: асинхронний агрегат ваги та протокол розповсюдження
SHARDCAST є протоколом вагового розповсюдження та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених пропускною здатністю та змінних станів вузлів у реальних мережевих умовах. Він поєднує механізм розповсюдження gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам постійно надсилати часткові оновлення в умовах асинхронності, досягаючи поступової конвергенції ваги та еволюції декількох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та відмовостійкість децентралізованого навчання, що є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo:Скудна асинхронна комунікаційна рамка
OpenDiLoCo є незалежною реалізацією та відкритим вихідним кодом фреймворку оптимізації комунікацій, розробленого командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто виникають під час децентралізованого навчання. Його архітектура базується на паралелізмі даних, через побудову розріджених топологій, таких як кільце, експандер, малий світ, щоб уникнути високих витрат на комунікацію при глобальній синхронізації, покладаючись лише на локальних сусідніх вузлів для завершення кооперативного навчання моделі. Поєднуючи асинхронні оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі у глобальному кооперативному навчанні, що є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
PCCL:Бібліотека координаційного зв'язку
PCCL є легковаговою комунікаційною бібліотекою, спеціально розробленою Prime Intellect для децентралізованого середовища навчання AI, що має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні комунікаційні можливості протоколу OpenDiLoCo. Він суттєво підвищує толерантність до пропускної здатності та сумісність пристроїв мережі навчання, прокладаючи "останній кілометр" комунікаційної бази для створення справжньої відкритої, безтрастової мережі спільного навчання.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання без дозволу, що підлягає перевірці та має економічні стимули, що дозволяє кожному брати участь у завданнях та отримувати винагороди на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, формуючи стимулюючий замкнутий цикл навколо "реальної навчальної поведінки".
Чотири, INTELLECT-2: випуск першої перевіреної децентралізованої навчальної моделі
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель посиленого навчання, яка була навчена за допомогою асинхронних, бездоверчий децентралізованих вузлів. Кількість параметрів досягає 32B. Модель INTELLECT-2 була навчена за допомогою понад 100 гетерогенних вузлів GPU, розташованих на трьох континентах, з використанням повністю асинхронної архітектури, тривалість навчання перевищила 400 годин, що продемонструвало життєздатність та стабільність асинхронної кооперативної мережі. Ця модель не лише є проривом у продуктивності, але також є першим системним втіленням парадигми "навчання як консенсус", що була запропонована Prime Intellect. INTELLECT-2 інтегрує основні протоколи, такі як PRIME-RL, TOPLOC та SHARDCAST.
Хочу залишити коментар китайською, і дотримуватимусь твоїх вимог.
Хіба що потрібно покрутити AI, чому так складно?