Искусственный интеллект и Блокчейн: от технологической эволюции до размещения в цепочке поставок

Слияние ИИ и Блокчейна: от технологий до применения

Быстрый рост отрасли искусственного интеллекта в последнее время рассматривается некоторыми как начало четвертой промышленной революции. Появление крупных языковых моделей значительно повысило эффективность в различных отраслях, и, по оценкам, увеличило общую производительность труда в США примерно на 20%. В то же время, способность к обобщению, обеспечиваемая большими моделями, считается совершенно новым парадигмой проектирования программного обеспечения. В отличие от точного проектирования кода в прошлом, современная разработка программного обеспечения больше ориентирована на интеграцию крупных моделей с высокой способностью к обобщению, что позволяет программному обеспечению обладать большей выразительностью и более широкими возможностями ввода-вывода. Технология глубокого обучения действительно принесла новый этап процветания в отрасли ИИ, и этот бум постепенно охватывает и индустрию криптовалют.

Данный отчет подробно рассмотрит историю развития отрасли ИИ, классификацию технологий, а также влияние изобретения технологий глубокого обучения на отрасль. Затем будет проведен глубокий анализ текущего состояния и тенденций развития в цепочке поставок, включая GPU, облачные вычисления, источники данных, устройства на краю и т.д. После этого будет исследовано по сути соотношение между Crypto и отраслью ИИ, а также проведен анализ структуры цепочки поставок, связанной с Crypto.

! Новичок в науке丨AI x Crypto: от нуля до пика

История развития отрасли ИИ

Индústria ИИ начала развиваться с 50-х годов 20 века. Для достижения видения искусственного интеллекта академическая и промышленная сферы в разные эпохи и на разных научных фонах разработали множество направлений для реализации искусственного интеллекта.

Современные технологии искусственного интеллекта в основном используют термин "машинное обучение", основная идея которого заключается в том, чтобы позволить машинам повторно итеративно улучшать производительность системы на основе данных в задачах. Основные шаги включают ввод данных в алгоритм, обучение модели с использованием этих данных, тестирование и развертывание модели, использование модели для выполнения автоматизированных предсказательных задач.

В настоящее время существует три основных направления машинного обучения: коннекционизм, символизм и бихевиоризм, которые имитируют человеческую нервную систему, мышление и поведение.

! Новичок в популярной науке丨AI x Crypto: от нуля до пика

Однако в настоящее время связь, представленная нейронными сетями, занимает лидирующие позиции (, также известная как глубокое обучение ). Основная причина заключается в том, что эта архитектура имеет один входной слой и один выходной слой, но несколько скрытых слоев. Как только количество слоев и нейронов ( и параметры ) становятся достаточно большими, появляется достаточно возможностей для подгонки сложных универсальных задач. Через ввод данных параметры нейронов могут постоянно настраиваться, и в конечном итоге, пройдя через множество данных, этот нейрон достигнет оптимального состояния ( параметров ), что и является причиной возникновения "глубины" - достаточного количества слоев и нейронов.

! Newcomer Science丨AI x Crypto: от нуля до пика

И основанные на нейронных сетях технологии глубокого обучения также имеют несколько итераций и эволюций, от самых ранних нейронных сетей до полносвязных нейронных сетей, RNN, CNN, GAN и в конечном итоге к современным большим моделям, таким как GPT, использующим технологии Transformer. Технология Transformer является лишь одним из направлений эволюции нейронных сетей, добавляя преобразователь ( Transformer ), который используется для кодирования данных всех модальностей (, таких как аудио, видео, изображения и т.д. ) в соответствующие числовые значения для представления. Затем эти данные вводятся в нейронную сеть, что позволяет нейронной сети подстраиваться под любые типы данных, реализуя тем самым мультимодальность.

Развитие ИИ прошло через три технологические волны. Первая волна пришлась на 60-е годы XX века, через десять лет после того, как была предложена технология ИИ. Эта волна была вызвана развитием символистской технологии, которая решала общие задачи обработки естественного языка и взаимодействия человека с машиной. В это же время появились экспертные системы, одной из которых являлась экспертная система DENRAL, разработанная в Стэнфордском университете. Эта система обладает очень глубокими знаниями в области химии и делает выводы на основе вопросов, чтобы генерировать ответы, аналогичные тем, что дает химический эксперт. Эта система можно рассматривать как сочетание химической базы знаний и системы вывода.

Вторая волна технологий ИИ произошла в 1997 году, когда IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова со счетом 3.5:2.5, и эта победа считается вехой в области искусственного интеллекта.

Третья волна технологий ИИ произошла в 2006 году. Трое гигантов глубокого обучения: Ян ЛеКун, Джеффри Хинтон и Ёсуа Бенгио предложили концепцию глубокого обучения, алгоритма, основанного на архитектуре искусственных нейронных сетей, который занимается обучением представления данных. После этого алгоритмы глубокого обучения постепенно эволюционировали, от RNN, GAN до Transformer и Stable Diffusion, эти алгоритмы вместе сформировали третью волну технологий, это также был расцвет коннекционизма.

! Newcomer Science丨AI x Crypto: от нуля до пика

Индустриальная цепочка глубокого обучения

В настоящее время языковые модели большого размера используют методы глубокого обучения на основе нейронных сетей. Модели большого размера, возглавляемые GPT, создали волну интереса к искусственному интеллекту, и множество игроков хлынули в эту область. Мы также обнаружили, что рынок испытывает огромный спрос на данные и вычислительные мощности. Поэтому в этой части отчета мы в основном исследуем индустриальную цепочку алгоритмов глубокого обучения, как формируются их верхние и нижние уровни в AI-индустрии, доминируемой алгоритмами глубокого обучения, а также каковы текущие состояния и соотношение спроса и предложения на этих уровнях, а также их будущее развитие.

Прежде всего, нам нужно прояснить, что при обучении больших моделей LLMs( на основе технологии Transformer, возглавляемых GPT), всего существует три этапа.

Перед обучением, поскольку он основан на Transformer, преобразователь должен преобразовать текстовый ввод в числовой формат, этот процесс называется "Tokenization", после чего эти числа называются Token. Согласно общему правилу, одно английское слово или символ можно грубо считать одним Token, а каждый иероглиф можно грубо считать двумя Token. Это также является основной единицей, используемой для оценки GPT.

Первый шаг, предварительное обучение. Путем предоставления достаточного количества пар данных на входном слое мы ищем оптимальные параметры для каждого нейрона в модели, в этот момент требуется много данных, а этот процесс также является самым затратным по вычислительной мощности, так как необходимо многократно итеративно пробовать различные параметры нейронов.

Второй шаг, дообучение. Дообучение — это процесс, при котором модель обучается на небольшом объеме, но очень качественных данных. Такие изменения позволяют получить более качественный вывод модели, поскольку предобучение требует больших объемов данных, но многие из них могут содержать ошибки или быть низкого качества.

Третий шаг, обучение с подкреплением. Сначала будет создана совершенно новая модель, которую мы называем "моделью награды", цель этой модели очень проста — упорядочить результаты вывода. Затем с помощью этой модели будет определяться, является ли вывод нашей большой модели качественным, таким образом, можно использовать модель награды для автоматической итерации параметров большой модели.

Короче говоря, в процессе обучения больших моделей предобучение требует очень большого объема данных, а необходимая вычислительная мощность GPU также максимальна. В то время как для дообучения требуется более качественные данные для улучшения параметров, обучение с подкреплением может итеративно изменять параметры с помощью модели вознаграждения для получения более качественных результатов.

В процессе обучения, чем больше параметров, тем выше потолок его обобщающей способности. Таким образом, на производительность большой модели в основном влияют три аспекта: количество параметров, объем и качество данных, вычислительная мощность. Эти три фактора совместно влияют на качество результатов большой модели и её обобщающую способность.

! Новичок в науке丨AI x Crypto: от нуля до пика

Отношения между криптовалютой и ИИ

Блокчейн得益于ZK技术的发展,演变成了去中心化 + 去信任化的思想。Мы вернемся к началу создания Блокчейн, это цепь Биткойн. В论文中 Сатоши Накамото, он впервые称其为去信任化的、价值转移系统。После этого Виталик и другие опубликовали论文,推出了去中心化、去信任化、价值互换的智能合约平台.

Вернуться к сути, мы считаем, что вся сеть Блокчейн — это сеть ценностей, каждая транзакция представляет собой преобразование ценности на основе базового токена. Здесь ценность проявляется в форме Токена, а Токеномика — это конкретные правила, отражающие ценность Токена.

Токены и технологии блокчейна, как средства переопределения и открытия ценности, имеют решающее значение для любой отрасли, включая отрасль ИИ. В отрасли ИИ выпуск токенов позволяет всем сторонам в цепочке производства ИИ переосмыслить ценность, что будет стимулировать больше людей углубляться в различные сегменты отрасли ИИ, поскольку вознаграждения станут более значительными, и их текущая ценность будет определяться не только денежными потоками, но и синергией токенов, что естественным образом приведет к формированию парадигмы «толстых протоколов и тонких приложений».

Во-вторых, все проекты в цепочке AI получат выгоду от увеличения капитала, и этот токен сможет поддерживать экосистему и способствовать появлению определенной философской идеи.

Экономика токенов, безусловно, оказывает положительное влияние на отрасль. Неизменяемость технологии Блокчейн и ее бездоверительный характер также имеют практическое значение для AI-отрасли, позволяя реализовывать некоторые приложения, требующие доверия, например, наши пользовательские данные могут быть разрешены на определенной модели, но необходимо обеспечить, чтобы модель не знала конкретных данных, обеспечить, чтобы модель не раскрыла данные, обеспечить возврат настоящих данных, выведенных этой моделью. Когда GPU недостаточно, можно распределять вычислительные ресурсы через Блокчейн-сеть; когда GPU обновляются, неиспользуемые GPU могут вносить свой вклад в вычислительную мощность сети, заново открывая оставшуюся ценность, что возможно только в глобальной сети ценностей.

В общем, токенная экономика может способствовать пересмотру и обнаружению ценности, децентрализованный реестр может решить проблему доверия и заново запустить движение ценности на глобальном уровне.

Новая информация丨AI x Crypto:От нуля до вершины

Обзор проектов в области AI в криптоиндустрии

Предложение GPU

В настоящее время наиболее активно используется проект Render, который был запущен в 2020 году и в основном предназначен для видеорендеринга, не связанного с крупными моделями. Сценарии, на которые нацелен Render, не совпадают с AI, поэтому в строгом смысле это не считается AI-сектором. Кроме того, его видеорендеринговый бизнес действительно имеет определенный реальный спрос, поэтому рынок облачных вычислений GPU может быть использован не только для обучения и вывода AI-моделей, но также и для традиционных задач рендеринга, что снижает риски зависимости рынка облачных вычислений GPU от единственного сегмента.

В цепочке поставок AI в криптовалюте, поставка вычислительной мощности безусловно является самым важным аспектом. Согласно прогнозам отрасли, в 2024 году спрос на вычислительную мощность GPU составит около 75 миллиардов долларов, к 2032 году рынок составит около 773 миллиардов долларов, среднегодовой темп роста (CAGR) составит примерно 33,86%.

Итерация GPU следует закону Мура (18-24, производительность удваивается каждый месяц, цена снижается вдвое ), поэтому спрос на совместное использование вычислительных мощностей GPU станет огромным, потому что взрывной рост рынка GPU приведет к образованию большого количества устаревших GPU под влиянием закона Мура в будущем. В это время эти неиспользуемые GPU будут продолжать реализовывать свою ценность как вычислительные мощности длинного хвоста в сети совместного использования, поэтому мы действительно видим долгосрочный потенциал и реальную полезность этого направления, не только для бизнеса малых и средних моделей, но и для традиционных рендеринговых услуг также будет сформирован достаточно сильный спрос.

! Новичок в науке丨AI x Crypto: от нуля до пика

Данные

В настоящее время запущенные проекты включают EpiK Protocol, Synesis One, Masa и другие. Различие заключается в том, что EpiK Protocol и Synesis One занимаются сбором открытых источников данных, тогда как Masa основан на технологии ZK и может осуществлять сбор конфиденциальных данных, что делает его более удобным для пользователей.

По сравнению с другими традиционными данными Web2, провайдеры данных Web3 обладают преимуществом на стороне сбора данных, поскольку индивидуумы могут вносить свои неконфиденциальные данные, что расширяет охват проектов, не ограничиваясь только B2B, но также позволяя оценивать данные любых пользователей, и любые прошлые данные обретают ценность. Кроме того, из-за наличия токеномики, стоимость сети и цена взаимозависимы, токены с нулевой стоимостью будут расти по мере увеличения ценности сети, и эти токены снизят затраты разработчиков, чтобы вознаградить пользователей, что сделает мотивацию пользователей к внесению данных более сильной.

! Новичок в науке丨AI x Crypto: от нуля до пика

ЗКМЛ

Если данные хотят реализовать вычисления с конфиденциальностью и обучение, то в настоящее время в отрасли в основном используется ZK-решение, которое применяет технологии гомоморфного шифрования, чтобы выполнять выводы с данными вне цепи, а затем загружать результаты и ZK-доказательства, таким образом можно гарантировать конфиденциальность данных и вывод.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 7
  • Поделиться
комментарий
0/400
GasGuruvip
· 1ч назад
Технологии изменяют тенденции будущего
Посмотреть ОригиналОтветить0
OldLeekNewSicklevip
· 15ч назад
Два больших тренда объединяются
Посмотреть ОригиналОтветить0
TheShibaWhisperervip
· 15ч назад
Перейти к общему искусственному интеллекту
Посмотреть ОригиналОтветить0
MrRightClickvip
· 15ч назад
Революционный технологический прорыв
Посмотреть ОригиналОтветить0
DefiSecurityGuardvip
· 15ч назад
Риски безопасности быстро растут.
Посмотреть ОригиналОтветить0
StakeOrRegretvip
· 15ч назад
Трудно не разогревать ИИ
Посмотреть ОригиналОтветить0
LightningLadyvip
· 15ч назад
Эта технология так быча!
Посмотреть ОригиналОтветить0
  • Закрепить