# AI DePINネットワーキング:分散型GPUコンピューティングの未来2023年以来、AIとDePINはWeb3分野の人気トレンドとなり、市場価値はそれぞれ300億ドルと230億ドルに達しました。本記事は両者の交差領域に焦点を当て、関連プロトコルの発展状況について探討します。AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIを強化します。大手テクノロジー企業によるGPU不足により、他のAI開発者は十分なGPU計算能力を得ることが困難になっています。従来の方法は中央集権的なクラウドサービスプロバイダーを選択することですが、柔軟性のない長期契約を結ぶ必要があり、効率が低下します。DePINは、トークンインセンティブによってネットワーク目標に合致したリソース貢献を促進し、より柔軟でコスト効果の高い代替手段を提供します。AI分野のDePINは、個人のGPUリソースをデータセンターに統合し、ユーザーに統一された供給を提供します。これは、開発者にカスタマイズされたオンデマンドアクセスを提供するだけでなく、GPU所有者に追加の収益を生み出します。市場には多くのAI DePINネットワークが存在し、本記事では各プロトコルの役割、目標、特長、そしてそれらの違いについて探ります。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-112d1efea526039e305cc846f2ca3c50)## AI DePINネットワークの概要### レンダーRenderはP2P GPU計算ネットワークの先駆者であり、最初はグラフィックレンダリングに特化していましたが、その後AI計算タスクに拡大しました。ハイライト:- オスカー技術賞を受賞したOTOY社によって設立されました- GPUネットワークは、パラマウントやPUBGなどの大手エンターテインメント企業によって使用されています。- Stability AIなどと協力し、AIモデルと3Dコンテンツレンダリングワークフローを統合する- 複数の計算クライアントを承認し、より多くのDePINネットワークGPUを統合する### アカッシュAkashはストレージ、GPU、CPU計算をサポートする"スーパークラウド"プラットフォームとして位置づけられ、AWSなどの従来のプラットフォームの代替品です。コンテナプラットフォームとKubernetesで管理された計算ノードを利用して、あらゆるクラウドネイティブアプリケーションをシームレスにデプロイできます。ハイライト:- 一般的な計算からネットワークホスティングに至る広範な計算タスクに対応- AkashMLはHugging Face上で15,000以上のモデルを実行することを許可します- Mistral AIのLLMチャットボット、Stability AIのSDXLなどの重要なアプリケーションをホスティング- メタバース、AIの展開、そしてフェデラル学習プラットフォームがそのスーパークラウドを使用しています### io.netio.netは、AIとML専用の分散GPUクラウドクラスターアクセスを提供し、データセンターやマイナーなどからのGPUリソースを統合します。注目ポイント:- IO-SDKはPyTorchやTensorflowなどのフレームワークと互換性があり、必要に応じて自動的に拡張できます。- 3種類の異なるタイプのクラスターの作成をサポートし、2分以内に起動できます。- RenderやFilecoinなどと協力して他のDePINネットワークのGPUを統合する### ゲンシン Gensynは、機械学習と深層学習に特化したGPU計算能力を提供します。学習証明などの技術を通じて、より効率的な検証メカニズムを実現します。ハイライト:- V100 GPUの時間あたりのコストは約0.40ドルで、大幅にコストを節約できます。- 事前訓練された基礎モデルを微調整して、より具体的なタスクを完了できます。- 基礎モデルは去中心化され、グローバルに共有され、追加機能を提供します。### アエティールAethirは企業向けのGPUを専門に展開し、AI、ML、クラウドゲームなどの計算集約型分野に焦点を当てています。ネットワーク内のコンテナは、クラウドアプリケーションを実行する仮想エンドポイントとして機能し、低遅延の体験を実現します。ハイライト:- クラウドフォンサービスに拡張し、APhoneと提携して非中央集権的なクラウドフォンを発売します。- NVIDIAやHPEなどの大規模なWeb2企業との広範な協力関係を確立する- CARVやMagic Edenなど複数のWeb3パートナーと協力する### ファラネットワークPhala NetworkはWeb3 AIソリューションの実行層として、信頼できる実行環境(TEE)を利用してプライバシー問題を処理します。AIエージェントはオンチェーンのスマートコントラクトによって制御されることができます。ハイライト:- 検証可能な計算のコプロセッサプロトコルとして、AIエージェントにブロックチェーン上のリソースを提供する- AI代理契約はRedpillを通じてOpenAIなどのトップ大規模言語モデルを取得できます- 将来的には、zk-proofs、MPC、FHEなどの複数のプルーフシステムが含まれる予定です- 将来的にH100などのTEE GPUをサポートし、計算能力を向上させます## プロジェクト比較| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ ||--------|-------------|------------------|---------------------|---------|---------------|----------|| ハードウェア | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPUの| GPUの| CPU || 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | オンチェーンAI実行 || AIタスクタイプ | 推論 | 両方可能 | 両方可能 | トレーニング | トレーニング | 実行 || 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 || ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット || データプライバシー | 暗号化\&ハッシュ | mTLS認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE || 作業コスト | ジョブあたり0.5-5% 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 || セキュリティ | レンダリング証明 | エクイティ証明 | 計算証明 | エクイティ証明 | レンダリング能力証明 | 中継チェーンからの継承 || 完了証明書 | - | - | タイムロックプルーフ | プルーフ・オブ・スタディ | レンダリング・プルーフ・オブ・ワーク | TEEプルーフ || 品質保証 | 争議 | - | - | 確認者と通報者 | チェッカーノード | リモート証明 || GPUクラスター | いいえ | はい | はい | はい | はい | いいえ |! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-68a395d50be4ab07fbc575dd54441164)## 重要性### クラスタと並列計算の可用性分散型コンピューティングフレームワークはGPUクラスターを実現し、より効率的なトレーニングを提供し、同時にスケーラビリティを向上させました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散型コンピューティングに依存します。例えば、OpenAIのGPT-4モデルは超1.8兆個のパラメータを持ち、3〜4ヶ月の間に128のクラスターで約25,000個のNvidia A100 GPUを使用してトレーニングされました。大多数プロジェクトは現在、クラスターを統合して並列計算を実現しています。io.netは他のプロジェクトと協力し、ネットワークにより多くのGPUを組み込んでおり、24年第一四半期には3,800を超えるクラスターを展開しました。Renderはクラスターをサポートしていませんが、単一のフレームを複数のノードに分解して同時に処理する仕組みは類似しています。Phalaは現在、CPUのみをサポートしていますが、CPUワーカーのクラスター化を許可しています。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-8f83f1affbdfd92f33bc47afe8928c5c)### データプライバシーAIモデルの開発には大量のデータセットが必要であり、これには機密情報が含まれる可能性があります。サムスンはコードの漏洩を懸念してChatGPTを無効にしましたが、マイクロソフトの38TBデータ漏洩事件はAIのセキュリティ対策の重要性を浮き彫りにしました。したがって、さまざまなデータプライバシー手法はデータのコントロール権を保護するために不可欠です。ほとんどのプロジェクトは、何らかの形式のデータ暗号化を使用しています。Renderはレンダリング結果を公開する際に暗号化とハッシュを使用し、io.netとGensynはデータ暗号化を採用し、AkashはmTLS認証を使用してデータアクセスを制限しています。io.netは最近、Mind Networkと提携して完全同態暗号(FHE)を発表しました。これにより、暗号化されたデータを解読することなく処理でき、既存の暗号技術よりもデータプライバシーをより良く保護します。Phala Networkは信頼できる実行環境(TEE)を導入し、外部プロセスがデータにアクセスしたり変更したりするのを防ぎます。また、zkDCAPバリデータとjtee CLIにzk-proofsを組み合わせてRiscZero zkVMを統合しています。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-df4f88879b53c4aa604b248fc9ff393a)### 完成証明と品質チェックの計算サービスの範囲が広いため、レンダリングからAI計算まで、最終的な品質がユーザーの基準に常に合致するとは限りません。証明書の取得と品質チェックはユーザーにとって有益です。GensynとAethirは生成完了証明を行い、io.netの証明はGPU性能が十分に活用されていることを示しています。GensynとAethirは品質チェックを行い、Gensynは検証者と通報者を使用し、Aethirはチェックノードを使用します。Renderは紛争解決プロセスの使用を推奨します。PhalaはTEE証明を生成し、AIエージェントが必要な操作を実行することを保証します。## ハードウェア統計データ| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ ||-------------|--------|-------|--------|------------|------------|--------|| GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - || CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ || H100/A100個 | - | 157 | 2330 | - | 2000+ | - || H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - || A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-24fd635c71ed2aad842d38bf56e70b43)### ハイパフォーマンスGPUの要件AIモデルのトレーニングは、Nvidia A100やH100などの高性能GPUを使用する傾向があります。H100の推論性能はA100の4倍であり、大手企業がLLMをトレーニングする際の選択肢となっています。分散型GPU市場の提供者は、より低価格を提供し、実際の需要を満たす必要があります。2023年、Nvidiaは大手テクノロジー企業に50万台以上のH100を納入し、同等のハードウェアを入手することが困難になりました。したがって、これらのプロジェクトが低コストで導入できるハードウェアの数量を考慮することは、顧客基盤の拡大にとって重要です。Akashは150台以上のH100とA100しか持っていませんが、io.netとAethirはそれぞれ2000台以上あります。事前学習済みのLLMや生成モデルは通常、248台から2000台以上のGPUクラスターを必要とするため、後者の2つのプロジェクトは大規模モデル計算により適しています。分散型GPUサービスのコストは、中央集権型サービスを下回っています。GensynとAethirは、1時間あたり1ドル未満でA100クラスのハードウェアをレンタルできると主張していますが、まだ検証には時間がかかります。NVLinkに接続されたGPUと比較して、ネットワーク接続のGPUクラスタのメモリは制限されています。NVLinkはGPU間の直接通信をサポートし、大規模なパラメータや大規模なデータセットに適したLLMに適しています。それにもかかわらず、分散型GPUネットワークは分散計算タスクに強力な計算能力とスケーラビリティを提供し、より多くのAIおよびMLユースケースの構築の機会を創出します。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-7a05f8ca3e44b9c91a7917953175da09)### コンシューマーグレードのGPU/CPUが利用可能ですCPUはAIモデルのトレーニングにおいても重要な役割を果たし、データ前処理からメモリ管理まで使用されます。コンシューマ向けGPUは、事前学習モデルの微調整や小規模モデルのトレーニングに使用できます。85%以上の消費者のGPUリソースが未使用であることを考慮して、Render、Akash、io.netなどのプロジェクトもこの市場にサービスを提供しています。これらのオプションを提供することで、彼らはニッチ市場を開発し、大規模な集中的な計算、小規模なレンダリング、またはその両方に焦点を合わせることができます。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-85bfeec032db538007843e9b55783e18)# まとめAI DePIN分野はまだ比較的新しく、課題に直面しています。例えば、io.netはGPUの数を偽造したとして非難され、その後、プルーフ・オブ・ワークプロセスを導入することで問題を解決しました。それにもかかわらず、これらの分散型GPUネットワークで実行されるタスクとハードウェアの数は顕著に増加しており、Web2のクラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。同時に、ハードウェアプロバイダーの増加は、以前には十分に活用されていなかった供給を反映しています。これは、AI DePINネットワークの製品市場適合性をさらに証明し、需要と供給の課題を効果的に解決しています。未来を展望すると、AIは成長を続ける数兆ドルの市場に発展するでしょう。これらの分散型GPUネットワークは、開発者に経済的に効率的な計算の代替手段を提供する上で重要な役割を果たします。需要と供給のギャップを埋めることで、これらのネットワークはAIと計算基盤の未来の構造に重要な貢献をするでしょう。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-10f0acfcfea618361b9c445c49edfc88)
AI DePINネットワークの台頭:分散型GPU計算が新しいトレンドをリード
AI DePINネットワーキング:分散型GPUコンピューティングの未来
2023年以来、AIとDePINはWeb3分野の人気トレンドとなり、市場価値はそれぞれ300億ドルと230億ドルに達しました。本記事は両者の交差領域に焦点を当て、関連プロトコルの発展状況について探討します。
AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIを強化します。大手テクノロジー企業によるGPU不足により、他のAI開発者は十分なGPU計算能力を得ることが困難になっています。従来の方法は中央集権的なクラウドサービスプロバイダーを選択することですが、柔軟性のない長期契約を結ぶ必要があり、効率が低下します。
DePINは、トークンインセンティブによってネットワーク目標に合致したリソース貢献を促進し、より柔軟でコスト効果の高い代替手段を提供します。AI分野のDePINは、個人のGPUリソースをデータセンターに統合し、ユーザーに統一された供給を提供します。これは、開発者にカスタマイズされたオンデマンドアクセスを提供するだけでなく、GPU所有者に追加の収益を生み出します。
市場には多くのAI DePINネットワークが存在し、本記事では各プロトコルの役割、目標、特長、そしてそれらの違いについて探ります。
! AIとDePINの交差点
AI DePINネットワークの概要
レンダー
RenderはP2P GPU計算ネットワークの先駆者であり、最初はグラフィックレンダリングに特化していましたが、その後AI計算タスクに拡大しました。
ハイライト:
アカッシュ
Akashはストレージ、GPU、CPU計算をサポートする"スーパークラウド"プラットフォームとして位置づけられ、AWSなどの従来のプラットフォームの代替品です。コンテナプラットフォームとKubernetesで管理された計算ノードを利用して、あらゆるクラウドネイティブアプリケーションをシームレスにデプロイできます。
ハイライト:
io.net
io.netは、AIとML専用の分散GPUクラウドクラスターアクセスを提供し、データセンターやマイナーなどからのGPUリソースを統合します。
注目ポイント:
ゲンシン
Gensynは、機械学習と深層学習に特化したGPU計算能力を提供します。学習証明などの技術を通じて、より効率的な検証メカニズムを実現します。
ハイライト:
アエティール
Aethirは企業向けのGPUを専門に展開し、AI、ML、クラウドゲームなどの計算集約型分野に焦点を当てています。ネットワーク内のコンテナは、クラウドアプリケーションを実行する仮想エンドポイントとして機能し、低遅延の体験を実現します。
ハイライト:
ファラネットワーク
Phala NetworkはWeb3 AIソリューションの実行層として、信頼できる実行環境(TEE)を利用してプライバシー問題を処理します。AIエージェントはオンチェーンのスマートコントラクトによって制御されることができます。
ハイライト:
プロジェクト比較
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | オンチェーンAI実行 | | AIタスクタイプ | 推論 | 両方可能 | 両方可能 | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&ハッシュ | mTLS認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | ジョブあたり0.5-5% 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | セキュリティ | レンダリング証明 | エクイティ証明 | 計算証明 | エクイティ証明 | レンダリング能力証明 | 中継チェーンからの継承 | | 完了証明書 | - | - | タイムロックプルーフ | プルーフ・オブ・スタディ | レンダリング・プルーフ・オブ・ワーク | TEEプルーフ | | 品質保証 | 争議 | - | - | 確認者と通報者 | チェッカーノード | リモート証明 | | GPUクラスター | いいえ | はい | はい | はい | はい | いいえ |
! AIとDePINの交差点
重要性
クラスタと並列計算の可用性
分散型コンピューティングフレームワークはGPUクラスターを実現し、より効率的なトレーニングを提供し、同時にスケーラビリティを向上させました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散型コンピューティングに依存します。例えば、OpenAIのGPT-4モデルは超1.8兆個のパラメータを持ち、3〜4ヶ月の間に128のクラスターで約25,000個のNvidia A100 GPUを使用してトレーニングされました。
大多数プロジェクトは現在、クラスターを統合して並列計算を実現しています。io.netは他のプロジェクトと協力し、ネットワークにより多くのGPUを組み込んでおり、24年第一四半期には3,800を超えるクラスターを展開しました。Renderはクラスターをサポートしていませんが、単一のフレームを複数のノードに分解して同時に処理する仕組みは類似しています。Phalaは現在、CPUのみをサポートしていますが、CPUワーカーのクラスター化を許可しています。
! AIとDePINの交差点
データプライバシー
AIモデルの開発には大量のデータセットが必要であり、これには機密情報が含まれる可能性があります。サムスンはコードの漏洩を懸念してChatGPTを無効にしましたが、マイクロソフトの38TBデータ漏洩事件はAIのセキュリティ対策の重要性を浮き彫りにしました。したがって、さまざまなデータプライバシー手法はデータのコントロール権を保護するために不可欠です。
ほとんどのプロジェクトは、何らかの形式のデータ暗号化を使用しています。Renderはレンダリング結果を公開する際に暗号化とハッシュを使用し、io.netとGensynはデータ暗号化を採用し、AkashはmTLS認証を使用してデータアクセスを制限しています。
io.netは最近、Mind Networkと提携して完全同態暗号(FHE)を発表しました。これにより、暗号化されたデータを解読することなく処理でき、既存の暗号技術よりもデータプライバシーをより良く保護します。
Phala Networkは信頼できる実行環境(TEE)を導入し、外部プロセスがデータにアクセスしたり変更したりするのを防ぎます。また、zkDCAPバリデータとjtee CLIにzk-proofsを組み合わせてRiscZero zkVMを統合しています。
! AIとDePINの交差点
完成証明と品質チェックの計算
サービスの範囲が広いため、レンダリングからAI計算まで、最終的な品質がユーザーの基準に常に合致するとは限りません。証明書の取得と品質チェックはユーザーにとって有益です。
GensynとAethirは生成完了証明を行い、io.netの証明はGPU性能が十分に活用されていることを示しています。GensynとAethirは品質チェックを行い、Gensynは検証者と通報者を使用し、Aethirはチェックノードを使用します。Renderは紛争解決プロセスの使用を推奨します。PhalaはTEE証明を生成し、AIエージェントが必要な操作を実行することを保証します。
ハードウェア統計データ
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |
! AIとDePINの交差点
ハイパフォーマンスGPUの要件
AIモデルのトレーニングは、Nvidia A100やH100などの高性能GPUを使用する傾向があります。H100の推論性能はA100の4倍であり、大手企業がLLMをトレーニングする際の選択肢となっています。
分散型GPU市場の提供者は、より低価格を提供し、実際の需要を満たす必要があります。2023年、Nvidiaは大手テクノロジー企業に50万台以上のH100を納入し、同等のハードウェアを入手することが困難になりました。したがって、これらのプロジェクトが低コストで導入できるハードウェアの数量を考慮することは、顧客基盤の拡大にとって重要です。
Akashは150台以上のH100とA100しか持っていませんが、io.netとAethirはそれぞれ2000台以上あります。事前学習済みのLLMや生成モデルは通常、248台から2000台以上のGPUクラスターを必要とするため、後者の2つのプロジェクトは大規模モデル計算により適しています。
分散型GPUサービスのコストは、中央集権型サービスを下回っています。GensynとAethirは、1時間あたり1ドル未満でA100クラスのハードウェアをレンタルできると主張していますが、まだ検証には時間がかかります。
NVLinkに接続されたGPUと比較して、ネットワーク接続のGPUクラスタのメモリは制限されています。NVLinkはGPU間の直接通信をサポートし、大規模なパラメータや大規模なデータセットに適したLLMに適しています。それにもかかわらず、分散型GPUネットワークは分散計算タスクに強力な計算能力とスケーラビリティを提供し、より多くのAIおよびMLユースケースの構築の機会を創出します。
! AIとDePINの交差点
コンシューマーグレードのGPU/CPUが利用可能です
CPUはAIモデルのトレーニングにおいても重要な役割を果たし、データ前処理からメモリ管理まで使用されます。コンシューマ向けGPUは、事前学習モデルの微調整や小規模モデルのトレーニングに使用できます。
85%以上の消費者のGPUリソースが未使用であることを考慮して、Render、Akash、io.netなどのプロジェクトもこの市場にサービスを提供しています。これらのオプションを提供することで、彼らはニッチ市場を開発し、大規模な集中的な計算、小規模なレンダリング、またはその両方に焦点を合わせることができます。
! AIとDePINの交差点
まとめ
AI DePIN分野はまだ比較的新しく、課題に直面しています。例えば、io.netはGPUの数を偽造したとして非難され、その後、プルーフ・オブ・ワークプロセスを導入することで問題を解決しました。
それにもかかわらず、これらの分散型GPUネットワークで実行されるタスクとハードウェアの数は顕著に増加しており、Web2のクラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。同時に、ハードウェアプロバイダーの増加は、以前には十分に活用されていなかった供給を反映しています。これは、AI DePINネットワークの製品市場適合性をさらに証明し、需要と供給の課題を効果的に解決しています。
未来を展望すると、AIは成長を続ける数兆ドルの市場に発展するでしょう。これらの分散型GPUネットワークは、開発者に経済的に効率的な計算の代替手段を提供する上で重要な役割を果たします。需要と供給のギャップを埋めることで、これらのネットワークはAIと計算基盤の未来の構造に重要な貢献をするでしょう。
! AIとDePINの交差点