# AI與DePIN的交匯:去中心化GPU網路的崛起自2023年以來,AI和DePIN成爲Web3領域的熱門趨勢,市值分別達到300億美元和230億美元。本文將探討兩者的交集,研究該領域協議的發展。在AI技術棧中,DePIN網路通過計算資源爲AI提供實用性。大型科技公司的發展導致GPU短缺,使其他開發人員難以獲得足夠的GPU進行計算。DePIN提供了一種更靈活、更具成本效益的替代方案,使用代幣獎勵來激勵符合網路目標的資源貢獻。AI DePIN將GPU資源從個人所有者衆包到數據中心,爲需要訪問硬件的用戶形成統一的供應。這不只爲開發人員提供可定制性和按需訪問,還爲GPU所有者提供額外收入。## AI DePIN網路概述### RenderRender是提供GPU計算能力的P2P網路先驅,專注於爲內容創作渲染圖形,後來擴展到包括從神經反射場到生成AI的計算任務。亮點:- 由擁有奧斯卡獲獎技術的雲圖形公司OTOY創立- GPU網路已被派拉蒙影業、PUBG等娛樂行業大公司使用 - 與Stability AI和Endeavor合作,集成AI模型與3D內容渲染工作流程- 批準多個計算客戶端,集成更多DePIN網路的GPU### AkashAkash定位爲支持存儲、GPU和CPU計算的"超級雲"替代品。利用容器平台和Kubernetes管理的計算節點,可跨環境無縫部署軟件,運行任何雲原生應用程序。亮點:- 針對從通用計算到網路托管的廣泛計算任務- AkashML允許在Hugging Face上運行超過15,000個模型- 托管了Mistral AI的LLM模型聊天機器人、Stability AI的SDXL模型等應用- 構建元宇宙、AI部署和聯邦學習的平台正在利用Supercloud### io.netio.net提供對分布式GPU雲集羣的訪問,專門用於AI和ML用例。它聚合了來自數據中心、加密礦工和其他去中心化網路的GPU資源。亮點:- IO-SDK與PyTorch和Tensorflow等框架兼容,多層架構可根據計算需求自動動態擴展- 支持創建3種不同類型的集羣,可在2分鍾內啓動- 與Render、FIL、Aethir和Exabits等合作整合GPU資源### GensynGensyn提供專注於機器學習和深度學習計算的GPU計算能力。它聲稱通過學習證明、基於圖形的精確定位協議和涉及計算提供商的質押和削減的激勵遊戲等概念,實現了更高效的驗證機制。亮點:- 預計V100等效GPU的每小時成本約爲0.40美元,大幅節省成本- 可對預先訓練的基礎模型進行微調,完成更具體的任務- 這些基礎模型將是去中心化的、全球擁有的,提供額外功能### AethirAethir專門搭載企業GPU,專注於計算密集型領域,主要是AI、機器學習、雲遊戲等。其網路中的容器充當執行基於雲的應用程序的虛擬端點,將工作負載從本地設備轉移到容器,實現低延遲體驗。亮點:- 擴展到雲手機服務,與APhone合作推出去中心化的雲智能手機- 與NVIDIA、Super Micro、HPE等大型Web2公司建立廣泛合作- 在Web3領域與CARV、Magic Eden、Sequence等多個合作夥伴### Phala NetworkPhala Network充當Web3 AI解決方案的執行層。其區塊鏈是一種無需信任的雲計算解決方案,通過使用可信執行環境(TEE)設計來處理隱私問題。亮點:- 充當可驗證計算的協處理器協議,使AI代理能夠鏈上資源- AI代理合約可通過Redpill獲得OpenAI、Llama等頂級大型語言模型- 未來將包括zk-proofs、多方計算、全同態加密等多重證明系統- 計劃支持H100等其他TEE GPU,提升計算能力## 項目比較| | Render | Akash | io.net | Gensyn | Aethir | Phala ||--------|-------------|------------------|---------------------|---------|---------------|----------|| 硬件 | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPU | GPU | CPU || 業務重點 | 圖形渲染和AI | 雲計算、渲染和AI | AI | AI | 人工智能、雲遊戲和電信 | 鏈上 AI 執行 || AI任務類型 | 推理 | Both | Both | 訓練 | 訓練 | 執行 || 工作定價 | 基於表現的定價 | 反向拍賣 | 市場定價 | 市場定價 | 招標系統 | 權益計算 || 區塊鏈 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot || 數據隱私 | 加密\&散列 | mTLS 身分驗證 | 數據加密 | 安全映射 | 加密 | TEE || 工作費用 | 每項工作 0.5-5% | 20% USDC, 4% AKT | 2% USDC,0.25% 準備金費用 | 費用低廉 | 每個session 20% | 與質押金額成比例 || 安全 | 渲染證明 | 權益證明 | 計算證明 | 權益證明 | 渲染能力證明 | 繼承自中繼鏈 || 完成證明 | - | - | 時間鎖證明 | 學習證明 | 渲染工作證明 | TEE 證明 || 質量保證 | 爭議 | - | - | 核實者和舉報人 | 檢查器節點 | 遠程證明 || GPU 集羣 | 否 | 是 | 是 | 是 | 是 | 否 |### 重要性#### 集羣和並行計算的可用性分布式計算框架實現了GPU集羣,提供更高效的訓練,同時增強了可擴展性。訓練復雜AI模型需要強大的計算能力,通常必須依靠分布式計算來滿足需求。例如,OpenAI的GPT-4模型擁有超過1.8萬億個參數,在3-4個月內使用128個集羣中的約25,000個Nvidia A100 GPU進行訓練。大多數重點項目現在都已整合了集羣以實現並行計算。io.net與其他項目合作,將更多GPU納入其網路,並已在24年第一季度部署了超過3,800個集羣。Render雖不支持集羣,但其工作原理類似,將單個幀分解爲多個節點同時處理。Phala目前僅支持CPU,但允許將CPU工作器集羣化。#### 數據隱私開發AI模型需要使用大量數據集,這些數據集可能包含敏感信息。因此,採取足夠的安全措施保護數據隱私至關重要。大多數項目都使用某種形式的數據加密來保護數據隱私。Render在發布渲染結果時使用加密和哈希處理,io.net和Gensyn採用數據加密,Akash使用mTLS身分驗證。io.net最近與Mind Network合作推出了完全同態加密(FHE),允許在無需先解密的情況下處理加密數據。Phala Network引入了可信執行環境(TEE),通過隔離機制防止外部進程訪問或修改數據。#### 計算完成證明和質量檢查由於服務範圍廣泛,從渲染圖形到AI計算,最終質量可能不一定符合用戶標準。完成證明和質量檢查對用戶有益。Gensyn和Aethir在計算完成後生成證明,io.net的證明表明租用的GPU性能得到充分利用。Gensyn和Aethir都會對已完成的計算進行質量檢查。Render建議使用爭議解決流程,如果審查委員會發現節點存在問題,則削減該節點。Phala完成後會生成TEE證明,確保AI代理在鏈上執行所需的操作。### 硬件統計數據| | Render | Akash | io.net | Gensyn | Aethir | Phala ||-------------|--------|-------|--------|------------|------------|--------|| GPU數量 | 5600 | 384 | 38177 | - | 40000+ | - || CPU數量 | 114 | 14672 | 5433 | - | - | 30000+ || H100/A100數量 | - | 157 | 2330 | - | 2000+ | - || H100費用/小時 | - | $1.46 | $1.19 | - | - | - || A100費用/小時 | - | $1.37 | $1.50 | $0.55 (預計) | $0.33 (預計) | - |#### 高性能GPU的要求AI模型訓練需要性能最佳的GPU,如Nvidia的A100和H100。H100的推理性能比A100快4倍,已成爲首選GPU,尤其是對於正在訓練自己的LLM的大型公司而言。去中心化GPU市場提供商要與Web2同行競爭,不僅要提供更低的價格,還要滿足市場的實際需求。考慮到獲取同等硬件的難度,這些項目能以低成本帶入網路的硬件數量對擴展服務至關重要。Akash總共只有150多個H100和A100單元,而io.net和Aethir則分別獲得了2000多個單元。通常,從頭開始預訓練LLM或生成模型需要集羣中至少248到2000多個GPU,因此後兩個項目更適合大型模型計算。目前市場上這些去中心化GPU服務的成本已經比中心化GPU服務低得多。Gensyn和Aethir都宣稱能夠以每小時不到1美元的價格租用相當於A100的硬件,但這仍需要隨着時間的推移得到證明。網路連接的GPU集羣擁有大量GPU,每小時成本較低,但與NVLink連接的GPU相比,它們的內存受限。NVLink支持多個GPU之間的直接通信,無需在CPU和GPU之間傳輸數據,實現高帶寬和低延遲。盡管如此,對於那些具有動態工作負載需求或需要靈活性和跨多個節點分配工作負載能力的用戶來說,去中心化GPU網路仍可爲分布式計算任務提供強大的計算能力和可擴展性。#### 提供消費級GPU/CPU盡管GPU是渲染和計算所需的主要處理單元,但CPU在訓練AI模型方面也發揮着重要作用。消費級GPU還可用於不太密集的任務,例如對已經預先訓練好的模型進行微調或在較小的數據集上訓練較小規模的模型。考慮到超過85%的消費者GPU資源處於閒置狀態,Render、Akash和io.net等項目也可以服務於這一部分市場。提供這些選項可以讓他們開發自己的市場利基,專注於大規模密集型計算、更通用的小規模渲染或兩者之間的混合。## 結論AI DePIN領域仍然相對較新,面臨着自身的挑戰。然而,這些去中心化GPU網路中執行的任務和硬件數量仍顯着增加。這一趨勢證明了AI DePIN網路的產品市場契合度,它們有效地解決了需求和供應方面的挑戰。展望未來,人工智能的發展軌跡指向一個蓬勃發展的數萬億美元的市場。這些分散的GPU網路將在爲開發人員提供經濟高
AI與DePIN融合:去中心化GPU網路引領算力新趨勢
AI與DePIN的交匯:去中心化GPU網路的崛起
自2023年以來,AI和DePIN成爲Web3領域的熱門趨勢,市值分別達到300億美元和230億美元。本文將探討兩者的交集,研究該領域協議的發展。
在AI技術棧中,DePIN網路通過計算資源爲AI提供實用性。大型科技公司的發展導致GPU短缺,使其他開發人員難以獲得足夠的GPU進行計算。DePIN提供了一種更靈活、更具成本效益的替代方案,使用代幣獎勵來激勵符合網路目標的資源貢獻。
AI DePIN將GPU資源從個人所有者衆包到數據中心,爲需要訪問硬件的用戶形成統一的供應。這不只爲開發人員提供可定制性和按需訪問,還爲GPU所有者提供額外收入。
AI DePIN網路概述
Render
Render是提供GPU計算能力的P2P網路先驅,專注於爲內容創作渲染圖形,後來擴展到包括從神經反射場到生成AI的計算任務。
亮點:
Akash
Akash定位爲支持存儲、GPU和CPU計算的"超級雲"替代品。利用容器平台和Kubernetes管理的計算節點,可跨環境無縫部署軟件,運行任何雲原生應用程序。
亮點:
io.net
io.net提供對分布式GPU雲集羣的訪問,專門用於AI和ML用例。它聚合了來自數據中心、加密礦工和其他去中心化網路的GPU資源。
亮點:
Gensyn
Gensyn提供專注於機器學習和深度學習計算的GPU計算能力。它聲稱通過學習證明、基於圖形的精確定位協議和涉及計算提供商的質押和削減的激勵遊戲等概念,實現了更高效的驗證機制。
亮點:
Aethir
Aethir專門搭載企業GPU,專注於計算密集型領域,主要是AI、機器學習、雲遊戲等。其網路中的容器充當執行基於雲的應用程序的虛擬端點,將工作負載從本地設備轉移到容器,實現低延遲體驗。
亮點:
Phala Network
Phala Network充當Web3 AI解決方案的執行層。其區塊鏈是一種無需信任的雲計算解決方案,通過使用可信執行環境(TEE)設計來處理隱私問題。
亮點:
項目比較
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | 硬件 | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | 業務重點 | 圖形渲染和AI | 雲計算、渲染和AI | AI | AI | 人工智能、雲遊戲和電信 | 鏈上 AI 執行 | | AI任務類型 | 推理 | Both | Both | 訓練 | 訓練 | 執行 | | 工作定價 | 基於表現的定價 | 反向拍賣 | 市場定價 | 市場定價 | 招標系統 | 權益計算 | | 區塊鏈 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | 數據隱私 | 加密&散列 | mTLS 身分驗證 | 數據加密 | 安全映射 | 加密 | TEE | | 工作費用 | 每項工作 0.5-5% | 20% USDC, 4% AKT | 2% USDC,0.25% 準備金費用 | 費用低廉 | 每個session 20% | 與質押金額成比例 | | 安全 | 渲染證明 | 權益證明 | 計算證明 | 權益證明 | 渲染能力證明 | 繼承自中繼鏈 | | 完成證明 | - | - | 時間鎖證明 | 學習證明 | 渲染工作證明 | TEE 證明 | | 質量保證 | 爭議 | - | - | 核實者和舉報人 | 檢查器節點 | 遠程證明 | | GPU 集羣 | 否 | 是 | 是 | 是 | 是 | 否 |
重要性
集羣和並行計算的可用性
分布式計算框架實現了GPU集羣,提供更高效的訓練,同時增強了可擴展性。訓練復雜AI模型需要強大的計算能力,通常必須依靠分布式計算來滿足需求。例如,OpenAI的GPT-4模型擁有超過1.8萬億個參數,在3-4個月內使用128個集羣中的約25,000個Nvidia A100 GPU進行訓練。
大多數重點項目現在都已整合了集羣以實現並行計算。io.net與其他項目合作,將更多GPU納入其網路,並已在24年第一季度部署了超過3,800個集羣。Render雖不支持集羣,但其工作原理類似,將單個幀分解爲多個節點同時處理。Phala目前僅支持CPU,但允許將CPU工作器集羣化。
數據隱私
開發AI模型需要使用大量數據集,這些數據集可能包含敏感信息。因此,採取足夠的安全措施保護數據隱私至關重要。
大多數項目都使用某種形式的數據加密來保護數據隱私。Render在發布渲染結果時使用加密和哈希處理,io.net和Gensyn採用數據加密,Akash使用mTLS身分驗證。
io.net最近與Mind Network合作推出了完全同態加密(FHE),允許在無需先解密的情況下處理加密數據。Phala Network引入了可信執行環境(TEE),通過隔離機制防止外部進程訪問或修改數據。
計算完成證明和質量檢查
由於服務範圍廣泛,從渲染圖形到AI計算,最終質量可能不一定符合用戶標準。完成證明和質量檢查對用戶有益。
Gensyn和Aethir在計算完成後生成證明,io.net的證明表明租用的GPU性能得到充分利用。Gensyn和Aethir都會對已完成的計算進行質量檢查。Render建議使用爭議解決流程,如果審查委員會發現節點存在問題,則削減該節點。Phala完成後會生成TEE證明,確保AI代理在鏈上執行所需的操作。
硬件統計數據
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU數量 | 5600 | 384 | 38177 | - | 40000+ | - | | CPU數量 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100數量 | - | 157 | 2330 | - | 2000+ | - | | H100費用/小時 | - | $1.46 | $1.19 | - | - | - | | A100費用/小時 | - | $1.37 | $1.50 | $0.55 (預計) | $0.33 (預計) | - |
高性能GPU的要求
AI模型訓練需要性能最佳的GPU,如Nvidia的A100和H100。H100的推理性能比A100快4倍,已成爲首選GPU,尤其是對於正在訓練自己的LLM的大型公司而言。
去中心化GPU市場提供商要與Web2同行競爭,不僅要提供更低的價格,還要滿足市場的實際需求。考慮到獲取同等硬件的難度,這些項目能以低成本帶入網路的硬件數量對擴展服務至關重要。
Akash總共只有150多個H100和A100單元,而io.net和Aethir則分別獲得了2000多個單元。通常,從頭開始預訓練LLM或生成模型需要集羣中至少248到2000多個GPU,因此後兩個項目更適合大型模型計算。
目前市場上這些去中心化GPU服務的成本已經比中心化GPU服務低得多。Gensyn和Aethir都宣稱能夠以每小時不到1美元的價格租用相當於A100的硬件,但這仍需要隨着時間的推移得到證明。
網路連接的GPU集羣擁有大量GPU,每小時成本較低,但與NVLink連接的GPU相比,它們的內存受限。NVLink支持多個GPU之間的直接通信,無需在CPU和GPU之間傳輸數據,實現高帶寬和低延遲。
盡管如此,對於那些具有動態工作負載需求或需要靈活性和跨多個節點分配工作負載能力的用戶來說,去中心化GPU網路仍可爲分布式計算任務提供強大的計算能力和可擴展性。
提供消費級GPU/CPU
盡管GPU是渲染和計算所需的主要處理單元,但CPU在訓練AI模型方面也發揮着重要作用。消費級GPU還可用於不太密集的任務,例如對已經預先訓練好的模型進行微調或在較小的數據集上訓練較小規模的模型。
考慮到超過85%的消費者GPU資源處於閒置狀態,Render、Akash和io.net等項目也可以服務於這一部分市場。提供這些選項可以讓他們開發自己的市場利基,專注於大規模密集型計算、更通用的小規模渲染或兩者之間的混合。
結論
AI DePIN領域仍然相對較新,面臨着自身的挑戰。然而,這些去中心化GPU網路中執行的任務和硬件數量仍顯着增加。這一趨勢證明了AI DePIN網路的產品市場契合度,它們有效地解決了需求和供應方面的挑戰。
展望未來,人工智能的發展軌跡指向一個蓬勃發展的數萬億美元的市場。這些分散的GPU網路將在爲開發人員提供經濟高