Штучний інтелект та Блокчейн: від еволюції технологій до розміщення в індустріальному ланцюгу

AI та Блокчейн: від технологій до застосування

Різке зростання індустрії штучного інтелекту останнім часом деякі вважають початком четвертої промислової революції. Поява великих мовних моделей суттєво підвищила ефективність у різних сферах, за оцінками, підвищивши загальну продуктивність роботи в США приблизно на 20%. У той же час, здатність до узагальнення, яку забезпечують великі моделі, вважається абсолютно новою парадигмою програмного дизайну. На відміну від минулого, коли акцент робився на точному проектуванні коду, тепер розробка програмного забезпечення більше зосереджена на впровадженні потужних моделей з високою здатністю до узагальнення, що надає програмному забезпеченню більшу виразність і більш широкий спектр можливостей вводу та виводу. Технології глибокого навчання дійсно принесли новий етап процвітання в індустрії ШІ, і цей бум поступово охоплює також індустрію криптовалют.

Цей звіт детально досліджує розвиток галузі штучного інтелекту, класифікацію технологій, а також вплив винаходу технології глибокого навчання на галузь. Потім буде проведено детальний аналіз розвитку вгору та вниз по ланцюгу вартості, включаючи GPU, хмарні обчислення, джерела даних, крайові пристрої тощо у глибокому навчанні. Після цього ми розглянемо сутність взаємозв'язку між Crypto та галуззю AI, а також систематизуємо структуру AI-ланцюга, пов'язаного з Crypto.

! Newcomer Science丨AI x Crypto: від нуля до піку

Розвиток індустрії штучного інтелекту

Індустрія ШІ почала свій шлях у 50-х роках XX століття, щоб реалізувати бачення штучного інтелекту, академічна та промислова сфери розвивали різні школи для досягнення штучного інтелекту в різні епохи та з різним науковим фоном.

Сучасні технології штучного інтелекту переважно використовують термін "машинне навчання", основна ідея якого полягає в тому, щоб дозволити машинам повторно ітеративно вдосконалювати продуктивність системи на основі даних у завданнях. Основні етапи включають введення даних в алгоритм, навчання моделі на цих даних, тестування і впровадження моделі, використання моделі для виконання автоматизованих прогнозних завдань.

Наразі машинне навчання має три основні школи: коннекціонізм, символізм та поведінковізм, які імітують нейронну систему, мислення та поведінку людини відповідно.

! Newcomer Science Popular丨AI x Crypto: від нуля до піку

А наразі нейронні мережі, що представляють коннекціонізм, мають перевагу (, також відомі як глибоке навчання ). Основна причина полягає в тому, що така структура має один вхідний шар, один вихідний шар, але має кілька прихованих шарів. Як тільки кількість шарів та нейронів ( параметрів ) стає достатньо великою, виникає достатня можливість для підгонки складних загальних задач. Завдяки введенню даних можна постійно налаштовувати параметри нейронів, і врешті-решт, пройшовши через багато даних, цей нейрон досягне оптимального стану ( параметрів ), і це також пояснює, звідки походить термін "глибина" - достатня кількість шарів та нейронів.

Новачки, які вивчають丨AI x Crypto: від нуля до вершин

А технологія глибокого навчання на основі нейронних мереж також має кілька технічних ітерацій та еволюцій, від найраніших нейронних мереж до прямої нейронної мережі, RNN, CNN, GAN, і нарешті до сучасних великих моделей, таких як GPT, які використовують технологію Transformer. Технологія Transformer є лише одним з напрямків еволюції нейронних мереж, до якої додано перетворювач ( Transformer ), призначений для кодування всіх модальностей (, таких як аудіо, відео, зображення тощо ) в відповідні числові значення для представлення. Потім ці дані вводяться в нейронну мережу, таким чином нейронна мережа може адаптуватися до будь-якого типу даних, що означає реалізацію мультимодальності.

Розвиток ШІ пройшов три технологічні хвилі. Перша хвиля відбулася в 60-х роках XX століття, через десять років після появи технології ШІ. Ця хвиля була викликана розвитком символістських технологій, які вирішили проблеми загальної обробки природної мови та діалогу людини з машиною. В той же період з'явилися експертні системи, зокрема експертна система DENRAL, створена в Стенфордському університеті. Ця система має дуже глибокі знання в області хімії, використовуючи питання для виведення відповідей, подібно до хімічного експерта. Цю хімічну експертну систему можна вважати поєднанням хімічної бази знань та системи виведення.

Друга хвиля технологій ШІ сталася в 1997 році, коли IBM Deep Blue з рахунком 3.5:2.5 здолав чемпіона світу з шахів Гаррі Каспарова, ця перемога вважається віхою в історії штучного інтелекту.

Третя хвиля технологій штучного інтелекту відбулася в 2006 році. Три велетні глибокого навчання Yann LeCun, Geoffrey Hinton та Yoshua Bengio запропонували концепцію глибокого навчання, алгоритму, що використовує штучні нейронні мережі для навчання репрезентацій даних. Після цього алгоритми глибокого навчання поступово еволюціонували, від RNN, GAN до Transformer та Stable Diffusion, ці алгоритми разом сформували цю третю технологічну хвилю, що також є золотим віком конектівізму.

! Newcomer Science丨AI x Crypto: від нуля до піку

Індустрія глибокого навчання

Сучасні великі мовні моделі використовують методи глибокого навчання на основі нейронних мереж. На чолі з GPT, великі моделі створили хвилю штучного інтелекту, в результаті чого на цей ринок увірвалися численні гравці. Ми також виявили, що попит на дані та обчислювальну потужність різко зріс, тому в цій частині звіту ми в основному досліджуємо індустріальну ланцюг глибоких навчальних алгоритмів. У галузі штучного інтелекту, що керується алгоритмами глибокого навчання, як складаються його верхні та нижні ланки, а також як виглядає їхній стан і відносини попиту та пропозиції, а також майбутній розвиток.

Перш за все, нам потрібно чітко усвідомити, що при навчанні великих моделей LLMs, очолюваних GPT на основі технології Transformer, процес поділяється на три етапи.

Перед навчанням, оскільки він заснований на Transformer, перетворювач повинен перетворити текстовий вхід у числовий, цей процес називається "Tokenization", після чого ці числа називаються Token. Згідно з загальним правилом, одне англійське слово або символ можна грубо вважати одним Token, а кожен китайський ієрогліф можна грубо вважати двома Token. Це також є базовою одиницею, що використовується для оцінки GPT.

Перший крок, попереднє навчання. Шляхом надання достатньої кількості пар даних для вхідного шару, щоб знайти найкращі параметри для кожного нейрона моделі, в цей момент потрібно багато даних, а цей процес є також найбільш ресурсоємним, оскільки потрібно багаторазово ітеративно перевіряти нейрони з різними параметрами.

Другий крок, доопрацювання. Доопрацювання полягає у наданні невеликої, але дуже якісної кількості даних для навчання; такі зміни дозволять моделі генерувати вихідні дані вищої якості, оскільки попереднє навчання вимагає великої кількості даних, але багато з цих даних можуть містити помилки або бути низької якості.

Третій крок, посилене навчання. Спочатку буде створено абсолютно нову модель, яку ми називаємо "модель винагороди", мета цієї моделі дуже проста - це ранжувати результати виходу. Після цього ми використовуємо цю модель, щоб визначити, чи є вихід великої моделі високоякісним, таким чином ми можемо використовувати модель винагороди для автоматичної ітерації параметрів великої моделі.

Коротко кажучи, під час навчання великих моделей попереднє навчання має дуже високі вимоги до обсягу даних, а необхідна обчислювальна потужність GPU також є максимальною, тоді як доопрацювання потребує більш якісних даних для покращення параметрів, а навчання з підкріпленням може повторно ітеративно коригувати параметри за допомогою моделі винагороди для отримання результатів вищої якості.

Під час навчання, чим більше параметрів, тим вищий потенціал узагальнення. Отже, на ефективність великої моделі впливають три основні аспекти: кількість параметрів, обсяг та якість даних, а також обчислювальні потужності. Ці три фактори спільно впливають на якість результату великої моделі та її здатність до узагальнення.

Новачок наука丨AI x Crypto: від нуля до вершини

Взаємозв'язок між Крипто та ШІ

Блокчейн得益于ZK技术的发展,演变成了去中心化 + 去信任化的思想。Ми повертаємося до початку створення Блокчейн, це ланцюг біткойнів. У статті Сатоші Накамото він спочатку називається системою переносу вартості без довіри. Після цього Віталік та інші опублікували статті, в яких представили децентралізовану, без довіри, платформу для обміну вартості за допомогою смарт-контрактів.

Повертаючись до суті, ми вважаємо, що вся мережа Блокчейн є мережею вартості, кожна транзакція є перетворенням вартості на основі базового токена. Тут вартість втілюється у формі Токена, а Токеноміка — це конкретні правила, що відображають вартість Токена.

Токени та технології Блокчейн, які переосмислюють та відкривають цінність, є критично важливими для будь-якої галузі, включаючи галузь штучного інтелекту. У галузі AI випуск токенів може дозволити всім сторонам в AI-індустрії переробити цінність, що заохочує більше людей глибше зануритися в різні сегменти AI-індустрії, оскільки отримані вигоди стануть більш значними, і не лише грошовий потік визначатиме їхню поточну вартість, але й синергія токенів підвищить цінність інфраструктури, що природно призведе до формування парадигми «товстих протоколів» і «тонких додатків».

По-друге, усі проекти в індустрії штучного інтелекту отримають прибуток від приросту капіталу, і цей токен зможе підтримувати екосистему та сприяти виникненню певної філософської ідеї.

Економіка токенів очевидно має позитивний вплив на індустрію, неможливість змінювати технологію Блокчейн і її бездокументна природа також мають практичне значення для AI-індустрії, що дозволяє реалізувати деякі застосунки, які вимагають довіри, наприклад, наші дані користувачів можуть бути дозволені на певній моделі, але потрібно забезпечити, щоб модель не знала конкретних даних, щоб модель не розкривала дані, щоб забезпечити повернення справжніх даних, отриманих від інференції цієї моделі. Коли GPU недостатньо, можна здійснити дистрибуцію через мережу Блокчейн, коли GPU оновлюються, вільні GPU можуть вносити обчислювальну потужність у мережу, повторно відкриваючи залишкову вартість, що може бути досягнуто лише глобальною ціннісною мережею.

Отже, токеноміка може сприяти переосмисленню та відкриттю цінності, децентралізований реєстр може вирішити проблему довіри, відновивши глобальний рух цінностей.

! Newcomer Science丨AI x Crypto: від нуля до піку

Огляд проектів, пов'язаних з AI у криптоіндустрії

( Постачання GPU

Наразі найбільш популярним є проект Render, який був запущений у 2020 році, і в основному використовується для відеорендерингу, що не стосується великих моделей. Сцена, на яку націлений Render, не є пов'язаною з ШІ, тому в строгому сенсі не відноситься до сектора ШІ. Крім того, його бізнес з відеорендерингу дійсно має певний реальний попит, тому ринок GPU хмарних обчислень може бути спрямований не лише на навчання та інференцію моделей ШІ, але також може бути застосований у традиційних завданнях рендерингу, що знижує ризики ринку GPU хмарних обчислень, пов'язані з залежністю від єдиного ринку.

У ланцюгу виробництва AI в Crypto, постачання обчислювальної потужності безсумнівно є найважливішим аспектом. Згідно з прогнозами галузі, у 2024 році попит на обчислювальну потужність GPU складе приблизно 75 мільярдів доларів США, до 2032 року ринковий попит складе приблизно 773 мільярди доларів США, а річний складний темп зростання )CAGR### становитиме близько 33,86%.

Ітераційна швидкість GPU слідує закону Мура (18-24 продуктивність подвоюється кожні кілька місяців, ціна знижується вдвічі ), тому попит на спільну потужність GPU стане надзвичайно великим, оскільки вибух на ринку GPU, під впливом закону Мура в майбутньому, створить велику кількість не найновіших поколінь GPU, і в цей час ці бездіяльні GPU продовжать реалізовувати свою цінність як потужність «досить довгого хвоста» в спільній мережі, тому ми дійсно бачимо довгостроковий потенціал та реальну користь цього сегмента, не лише для бізнесу середніх і малих моделей, але й традиційний рендеринг також матиме досить сильний попит.

! Newcomer Science丨AI x Crypto: від нуля до піку

( дані

Наразі запущені проекти включають EpiK Protocol, Synesis One, Masa тощо, різниця полягає в тому, що EpiK Protocol та Synesis One призначені для збору відкритих джерел даних, тоді як Masa базується на технології ZK, що дозволяє збирати приватні дані, що робить його більш зручним для користувачів.

У порівнянні з іншими традиційними компаніями даних Web2, постачальники даних Web3 мають переваги на стороні збору даних, оскільки особи можуть вносити свої неналежні дані, таким чином проект має більш широкий охоплення, не лише ToB, а й може встановлювати ціну на дані будь-якого користувача, будь-які минулі дані набувають цінності, і завдяки існуванню токеноміки, сама цінність і ціна мережі є взаємозалежними, токени з нульовою вартістю зростають разом з підвищенням цінності мережі, а ці токени знижують витрати розробників, щоб винагороджувати користувачів, мотивація користувачів вносити дані стане ще більшою.

![Новачок наукові знання丨AI x Crypto: від нуля до вершин])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp###

( ЗКМЛ

Якщо дані хочуть реалізувати обчислення конфіденційності та навчання, то наразі в індустрії головним чином використовують ZK рішення, що використовують технологію гомоморфного шифрування, щоб виконати виведення даних поза ланцюгом, а потім завантажити результати та ZK докази, таким чином можна гарантувати конфіденційність даних і виведення.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 6
  • Поділіться
Прокоментувати
0/400
OldLeekNewSicklevip
· 8год тому
Два великі напрямки об'єднуються
Переглянути оригіналвідповісти на0
TheShibaWhisperervip
· 8год тому
Швидкий перехід до загального штучного інтелекту
Переглянути оригіналвідповісти на0
MrRightClickvip
· 8год тому
Революційний технологічний прорив
Переглянути оригіналвідповісти на0
DefiSecurityGuardvip
· 8год тому
Швидко зростають ризики безпеки.
Переглянути оригіналвідповісти на0
StakeOrRegretvip
· 8год тому
Важко не розігнати AI
Переглянути оригіналвідповісти на0
LightningLadyvip
· 8год тому
Ця технологія така класна!
Переглянути оригіналвідповісти на0
  • Закріпити