Децентралізація AI тренування: Prime Intellect веде нову парадигму

Нові парадигми навчання ШІ: Передові дослідження децентралізованого навчання

У повній ціннісній ланцюгу AI навчання моделей є найбільш ресурсоємним та високим за технологічним порогом етапом, що безпосередньо визначає межі можливостей моделей та ефективність їх застосування. На відміну від легковагового виклику на етапі виводу, процес навчання вимагає постійних великих обчислювальних потужностей, складних процесів обробки даних та підтримки високоефективних алгоритмів оптимізації, що є справжньою "важкою промисловістю" в будівництві AI-систем. З точки зору архітектурних парадигм, методи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.

Святий Грааль Crypto AI: Децентралізація тренування на передовій

Централізоване навчання є найпоширенішим традиційним методом, виконуваним єдиною установою в локальному високопродуктивному кластері, що охоплює всі етапи навчання - від апаратного забезпечення, базового програмного забезпечення, системи розподілу кластерів до всіх компонентів навчального фреймворку, які координуються єдиною системою контролю. Ця архітектура глибокої координації дозволяє досягти оптимальної ефективності спільного використання пам'яті, синхронізації градієнтів та механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini тощо, з перевагами високої ефективності та контрольованих ресурсів, але в той же час існують проблеми монополії даних, бар'єрів для ресурсів, споживання енергії та ризику єдиної точки.

Розподілене навчання є основним способом навчання великих моделей на сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислення та зберігання на одній машині. Хоча фізично воно має "дистрибутивні" ознаки, але в цілому все ще контролюється централізованими організаціями для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, за допомогою технології високошвидкісної міжмашинної зв'язки NVLink, основний вузол координує всі підзавдання. Основні методи включають:

  • Паралельність даних: кожен вузол навчає різні дані, параметри спільні, потрібно відповідати вагам моделі
  • Модельне паралелізм: розміщення різних частин моделі на різних вузлах для досягнення високої масштабованості
  • Паралельні канали: поетапне послідовне виконання, підвищення пропускної здатності
  • Тензорне паралельне обчислення: деталізація сегментації матричних обчислень, підвищення паралельної дискретизації

Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же бос дистанційно керує співробітниками в кількох "офісах", щоб спільно виконати завдання. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA та інші ) навчаються цим способом.

Децентралізація тренування означає більш відкритий і стійкий до цензури майбутній шлях. Його ключовими рисами є: кілька недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайовими пристроями ), які спільно виконують навчальні завдання без центрального координатора, зазвичай через протоколи, які забезпечують розподіл завдань і співпрацю, а також за допомогою криптостимулів для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:

  • Складність гетерогенності обладнання та розподілу: висока складність координації між гетерогенними пристроями, низька ефективність розподілу завдань
  • Вузьке місце в ефективності зв'язку: нестабільна мережна комунікація, очевидне вузьке місце в синхронізації градієнтів
  • Відсутність довірчого виконання: відсутність довірчого середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у розрахунках.
  • Відсутність єдиного координування: немає центрального диспетчера, розподіл завдань, механізм відкату помилок складний

Децентралізація тренування можна розуміти як: група глобальних добровольців, які по черзі вносять обчислювальну потужність для спільного тренування моделі, але "справді здійсненне масове децентралізоване тренування" все ще є системною інженерною проблемою, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей та інші аспекти, але чи можна досягти "спільної ефективності + заохочення чесності + правильності результатів" ще перебуває на ранньому етапі прототипування.

Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює збереження даних локально, централізовану агрегацію параметрів моделі, підходить для сценаріїв, що акцентують увагу на конфіденційності, таких як охорона здоров'я та фінанси (. Федеративне навчання має інженерну структуру розподіленого навчання та можливості локальної кооперації, одночасно володіючи перевагами розподілу даних децентралізованого навчання, проте все ще залежить від надійних координуючих сторін і не має повністю відкритих та антицензурних характеристик. Можна розглядати як "контрольовану децентралізацію" в сценаріях конфіденційності, де завдання навчання, структура довіри та механізми зв'язку є відносно м'якими, що робить його більш придатним для перехідних архітектур у промисловості.

![Святий Грааль Crypto AI: Децентралізація навчання на передовій])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(

Децентралізація тренувань: межі, можливості та реальні шляхи

З точки зору тренувальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних сценаріях, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або труднощі в співпраці, це природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженням суверенітету ), такі як медичні, фінансові та секретні дані (, обмежені законодавчими вимогами та етичними нормами, що унеможливлює відкритий обмін; а завдання ), що не мають основи для співпраці, такі як закриті моделі підприємств або навчання внутрішніх прототипів (, позбавлені зовнішньої мотивації для участі. Ці межі разом складають реальні обмеження сучасного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у структурно легких, простих для паралельного виконання та заохочувальних типах завдань, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: мікронастройка LoRA, завдання після навчання, що стосуються вирівнювання поведінки ), такі як RLHF, DPO (, краудсорсингове навчання та маркування даних, навчання малих базових моделей з контролем ресурсів, а також сцени кооперативного навчання з участю крайових пристроїв. Ці завдання загалом мають високу паралельність, низьку зв'язаність і допускають гетерогенну обробку, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.

![Святий Грааль Crypto AI: Децентралізація тренувань на передовій])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(

Децентралізація тренування класичних проектів аналіз

Наразі в області децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічних інновацій та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи сучасні напрямки теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно зрозумілими, вже можна побачити початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури п'яти проектів, а також додатково розглянуто їх відмінності та взаємодоповнюючі зв'язки в системі децентралізованого AI навчання.

) Prime Intellect: Тренувальні траєкторії, що підлягають верифікації, посилене навчання, співпраця, мережеві піонери

Prime Intellect прагне побудувати мережу навчання ШІ без необхідності довіри, що дозволяє будь-кому брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану навчальну систему ШІ з перевіркою, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.

01, Структура протоколу Prime Intellect та цінність ключових модулів

![Святий грааль Crypto AI: передові дослідження децентралізованого навчання]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(

)# 02、Детальний опис ключових механізмів навчання Prime Intellect

#PRIME-RL: Архітектура завдань декомпонованого асинхронного посилення навчання

PRIME-RL є фреймворком моделювання та виконання завдань, розробленим Prime Intellect для Децентралізація навчальних сценаріїв, спеціально створеним для гетерогенних мереж і асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний адаптаційний об'єкт, структурно декомпонує процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в середовищі без централізованого керування, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.

![Святий Грааль Crypto AI: Децентралізація тренувань на передовій досліджень]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(

#TOPLOC:Легка перевірка поведінки навчання

TOPLOC)Довіра до спостереження та перевірка локальності( є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повне перерахування моделі, а аналізує локальні послідовності узгодженості між "послідовністю спостереження↔оновлення стратегії" для завершення перевірки легковажної структури. Вперше він перетворює траєкторії поведінки під час навчання на об'єкти, які можна перевірити, що є ключовим нововведенням для реалізації бездоверчого розподілу винагород за навчання, надаючи реальний шлях до створення аудиторських та стимулюючих децентралізованих мереж співпраці в навчанні.

![Святий Грааль Crypto AI: Децентралізація тренування на передовій])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(

#SHARDCAST: Асинхронна вага агрегації та поширення протоколу

SHARDCAST є протоколом вагового поширення та агрегації, розробленим Prime Intellect, спеціально оптимізованим для асинхронних, обмежених по пропускній здатності та з змінним станом вузлів реальних мережевих середовищ. Він поєднує механізм поширення gossip з локальною синхронізацією, дозволяючи кільком вузлам продовжувати надсилати часткові оновлення в умовах асинхронності, що забезпечує поступову конвергенцію ваг та еволюцію з кількома версіями. На відміну від централізованих або синхронізованих методів AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для стабільного консенсусу ваг та безперервної ітерації навчання.

![Святий Грааль Crypto AI: Децентралізація тренування на передовій])https://img-cdn.gateio.im/webp-social/moments-f86b109da66a0a4c9239221650a4a0a8.webp(

#OpenDiLoCo:Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo – це незалежно реалізована та відкрита система оптимізації зв'язку командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розроблена для вирішення викликів, таких як обмежена пропускна здатність, гетерогенні пристрої та нестабільні вузли, які часто виникають під час децентралізованого навчання. Її архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологічних структур, таких як Кільце, Розширювач, Малий світ, що дозволяє уникнути високих витрат на зв'язок від глобальної синхронізації, і дозволяє виконувати спільне навчання моделей, покладаючись лише на сусідні вузли. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, що значно підвищує можливість участі у глобальному кооперативному навчанні та є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.

#PCCL:Бібліотека координаційного зв'язку

PCCL)Prime Collective Communication Library( є легковаговою бібліотекою зв'язку, розробленою Prime Intellect для децентралізованого середовища навчання AI, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку), таких як NCCL, Gloo( в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджені топології, стиснення градієнтів, синхронізацію низької точності та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом для підтримки асинхронних комунікаційних можливостей протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності мережі для навчання та сумісність пристроїв, відкриваючи "останню милю" зв'язку для створення справжньої відкритої, не потребуючої довіри мережі спільного навчання.

![Святий Грааль Crypto AI: Децентралізація тренувань на передовій досліджень])https://img-cdn.gateio.im/webp-social/moments-a562dacd6fc5420f2afd895664b6be65.webp(

)# 03、Prime Intellect стимулююча мережа та розподіл ролей

Prime Intellect побудував мережу навчання, яка не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороди на основі реального внеску. Протокол функціонує на основі трьох основних ролей:

  • Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та стандарти валідації
  • Тренувальний вузол: виконання локального тренування, подання оновлень ваг та спостереження за траєкторією
  • Вузли верифікації: використання механізму TOPLOC для верифікації
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
bridge_anxietyvip
· 4год тому
Не дивно, що обчислювальна потужність така дорога
Переглянути оригіналвідповісти на0
GasBankruptervip
· 08-04 21:02
Чому ще така дорога обчислювальна потужність… шкода, що втратили.
Переглянути оригіналвідповісти на0
liquidation_surfervip
· 08-04 01:17
Пух, ще один, хто грає в децентралізацію.
Переглянути оригіналвідповісти на0
SmartContractPhobiavip
· 08-04 00:53
Ци, ще недостатньо гарячі картки для майнінгу, так?
Переглянути оригіналвідповісти на0
MrRightClickvip
· 08-04 00:50
Знову граєш у нову концепцію?
Переглянути оригіналвідповісти на0
  • Закріпити