了解 IO.NET: AI與Web3的融合

新手4/23/2024, 10:44:52 AM
文章深入探討了AI與Web3結合的商業必要性,強調了分布式算力服務的重要性和面臨的挑戰。特別關注了IO.NET項目,這是一個分布式AI算力平台,旨在通過代幣模型激勵匯聚AI算力,提供彈性、快速部署和低成本的AI計算服務。文章分析了IO.NET的產品邏輯、團隊背景、融資情況,並對其潛在市值進行了預測。此外,文章還討論了分布式計算市場的發展趨勢和可能的影響因素。

引言

在我的上一篇文章中,提到本輪加密牛市週期與前兩輪週期相比,缺少足夠有影響力的新商業和新資產敘事。AI 是本輪 Web3 領域少有的新敘事之一,本文筆者將結合今年的熱點 AI 項目 IO.NET,嘗試梳理關於以下 2 個問題的思考:

  • AI+Web3 在商業上的必要性
  • 分布式算力服務的必要性和挑戰

其次,筆者將梳理 AI 分布式算力的代表項目:IO.NET 項目的關鍵信息,包括產品邏輯、競品情況和項目背景,並就項目的估值進行推演。

本文關於 AI 和 Web3 結合一節的部分思考,受到了 Delphi Digital 研究員 Michael rinko 所寫的《The Real Merge》的啓發。本文的部分觀點存在對該文章的消化和引述,推薦讀者閱讀原文。

本文爲筆者截至發表時的階段性思考,未來可能可能發生改變,且觀點具有極強的主觀性,亦可能存在事實、數據、推理邏輯的錯誤,請勿作爲投資參考,歡迎同業的批評和探討。

以下爲正文部分。

1.商業邏輯:AI 和 Web3 的結合點

1.1 2023:AI 造就的新「奇跡年」

回看人類發展史,一旦科技實現了突破性進展,從個體日常生活,到各個產業格局,再到整個人類文明,都會跟着發生天翻地覆的變化。

人類歷史中有兩個重要年份,分別是 1666 年和 1905 年,如今它們被稱爲科技史上的兩大「奇跡年」。

1666 年作爲奇跡年,是因爲牛頓的科學成果在該年集中式地湧現。這一年,他開闢了光學這個物理分支,創立了微積分這個數學分支,導出了引力公式這個現代自然科學的基礎定律。這當中無論哪一項都是未來百年人類科學發展的奠基式貢獻,大大加速了整體科學的發展。

第二個奇跡年是 1905 年,彼時僅僅 26 歲的愛因斯坦在《物理學年鑑》上連續發表 4 篇論文,分別涉及光電效應(爲量子力學奠基)、布朗運動(成爲分析隨機過程的重要引用)、狹義相對論和質能方程(也就是那個知名公式 E=MC^2)。在後世評價中,這四篇論文每一篇都超過諾貝爾物理學獎的平均水平(愛因斯坦本人也因爲光電效應論文獲得了諾貝爾獎),人類文明的歷史進程再一次被大大推進了好幾步。

而剛剛過去的 2023 年,大概率也會因爲 ChatGPT,而被稱之爲又一個「奇跡年」。

我們把 2023 年看做人類科技史上的有一個「奇跡年」,不僅是因爲 GPT 在自然語言理解和生成上的巨大進步,更是因爲人類從 GPT 的進化中摸清了大語言模型能力增長的規律——即通過擴大模型參數和訓練數據,就能指數級別提升模型的能力——且這一進程短期還看不到瓶頸(只要算力夠用的話)。

該能力遠不至於理解語言和生成對話,還能被廣泛地交叉用於各類科技領域,以大語言模型在生物領域的應用爲例:

  • 2018 年,諾貝爾化學獎得主弗朗西斯·阿諾德在頒獎儀式上才說道:「今天我們在實際應用中可以閱讀、寫入和編輯任何 DNA 序列,但我們還無法通過它創作(compose it)。」僅僅在他講話的 5 年後,2023 年,來自斯坦福大學和硅谷的 AI 創業企業 Salesforce Research 的研究者,在《自然 - 生物技術》發表論文,他們通過基於 GPT3 微調而成的大語言模型,從 0 創造出了全新的 100 萬種蛋白質,並從中尋找到 2 種結構截然不同、卻都具有殺菌能力的蛋白質,有希望成爲抗生素之外的細菌對抗方案。也就是說:在 AI 的幫助下,蛋白質「創造」的瓶頸突破了。
  • 而在此前,人工智能 AlphaFold 算法在 18 個月內,把地球上幾乎所有的 2.14 億種蛋白質結構都做了預測,這項成果是過往所有人類結構生物學家工作成果的幾百倍。

有了基於 AI 的各類模型,從生物科技、材料科學、藥物研發等硬科技,再到法律、藝術等人文領域,必將迎來翻天覆地的變革,而 2023 正是這一切的元年。

我們都知道,近百年來人類在財富上的創造能力是指數級別增長的,而 AI 技術的快速成熟,必然會進一步加速這一進程。

全球 GDP 總量走勢圖,數據來源:世界銀行

1.2 AI 與 Crypto 的結合

要從本質上理解 AI 與 Crypto 結合的必要性,可以從兩者互補的特性開始。

AI 和 Crypto 特性的互補

AI 有三個屬性:

  • 隨機性:AI 具有隨機性,其內容生產的機制背後是一個難以復現、探查的黑盒,因此結果也具有隨機性
  • 資源密集:AI 是資源密集型產業,需要大量的能源、芯片、算力
  • 類人智能:AI(很快將)能夠通過圖靈測試,此後,人機難辨 *

※2023 年 10 月 30 日,美國加州大學聖迭戈分校的研究小組發布了關於 GPT-3.5 和 GPT-4.0 的圖靈測試結果(測試報告)。GPT4.0 成績爲 41%,距離及格線 50% 僅差 9%,同項目人類測試成績爲 63%。本圖靈測試的含義爲有百分之多少的人認爲和他聊天的那個對象是真人。如果超過 50%,就說明人羣中至少有一半以上的人認爲那個交談對象是人,而不是機器,即視作通過圖靈測試。

AI 在爲人類創造新的跨越式的生產力的同時,它的這三個屬性也給人類社會帶來的巨大的挑戰,即:

  • 如何驗證、控制 AI 的隨機性,讓隨機性成爲一種優勢而非缺陷
  • 如何滿足 AI 所需要的巨大能源和算力缺口
  • 如何分辨人和機器

而 Crypto 和區塊鏈經濟的特性,或許正好是解決 AI 帶來的挑戰的良藥,加密經濟具有以下 3 個特徵:

  • 確定性:業務基於區塊鏈、代碼和智能合約運行,規則和邊界清晰,什麼輸入就有什麼結果,高度確定性
  • 資源配置高效:加密經濟構建了一個龐大的全球自由市場,資源的定價、募集、流轉非常快速,且由於代幣的存在,可以通過激勵加速市場供需的匹配,加速到達臨界點
  • 免信任:帳本公開,代碼開源,人人可便捷驗證,帶來「去信任(trustless)」的系統,而 ZK 技術則避免驗證同時的隱私暴露

接下來通過 3 個例子來說明 AI 和加密經濟的互補性。

例子 A:解決隨機性,基於加密經濟的 AI 代理

AI 代理(AI Agent)即負責基於人類意志,替人類執行工作的人工智能程序(代表性項目有 Fetch.AI)。假設我們要讓自己的 AI 代理處理一筆金融交易,比如「買入 1000 美元的 BTC」。AI 代理可能面臨兩種情況:

情況一,它要對接傳統金融機構(比如貝萊德),購入 BTC ETF,這裏面臨着大量的 AI 代理和中心化機構的適配問題,比如 KYC、資料審查、登入、身分驗證等等,目前來說還是非常麻煩。

情況二,它基於原生加密經濟運行,情況會變得簡單得多,它會通過 Uniswap 或是某個聚合交易平台,直接用你的帳戶籤名、下單完成交易,收到 WBTC(或是其他封裝格式的 BTC),整個過程快捷簡單。實際上,這就是各類 Trading BOT 在做的事情,它們實際上已經扮演了一個初級的 AI 代理的角色,只不過工作專注於交易而已。未來各類交易 BOT 隨着 AI 的融入和演化,必然能執行更多復雜的交易意圖。比如:跟蹤 100 個鏈上的聰明錢地址,分析它們的交易策略和成功率,用我地址裏的 10% 資金在一周內執行類似交易,並在發現效果不佳時停止,並總結失敗的可能原因。

AI 在區塊鏈的系統中運行會更加良好,本質上是因爲加密經濟規則的清晰性,以及系統訪問的無許可。在限定的規則下執行任務,AI 的隨機性帶來的潛在風險也將更小。比如 AI 在棋牌比賽、電子遊戲的表現已經碾壓人類,就是因爲棋牌和遊戲是一個規則清晰的封閉沙盒。而 AI 在自動駕駛上的進展會相對緩慢,因爲開放的外部環境的挑戰更大,我們也更難容忍 AI 處理問題的隨機性。

例子 B:塑造資源,通過代幣激勵聚集資源

BTC 背後的全球的算力網路,其當前的總算力(Hashrate: 576.70 EH/s)超過了任何一個國家的超級計算機的綜合算力。其發展動力來自於簡單、公平的網路激勵。

BTC 網路算力走勢,來源:https://www.coinwarz.com/

除此之外,包括 Mobile 在內的 DePIN 項目們,也正在嘗試通過代幣激勵塑造供需兩端的雙邊市場,實現網路效應。本文接下來將重點梳理的 IO.NET,則是爲了匯聚 AI 算力設計的平台,希望通過代幣模型,激發出更多的 AI 算力潛力。

例子 C:開源代碼,引入 ZK,保護隱私的情況下分辨人機

作爲 OpenAI 創始人 Sam Altman 參與的 Web3 項目,Worldcoin 通過硬件設備 Orb,基於人的虹膜生物特徵,通過 ZK 技術生成專屬且匿名的哈希值,用於驗證身分,區別人和機器。今年 3 月初,Web3 藝術項目 Drip 就開始使用 Worldcoin 的 ID,來驗證真人用戶和發放獎勵。

此外,Worldcoin 也在近日開源了其虹膜硬件 Orb 的程序代碼,就用戶生物特徵的安全和隱私提供保證。

總體來說,加密經濟由於代碼和密碼學的確定性、無許可和代幣機制帶來的資源流轉和募集優勢,和基於開源代碼、公開帳本的去信任屬性,已經成爲人類社會面臨 AI 挑戰的一個重要的潛在解決方案。

而且其中最迫在眉睫,商業需求最旺盛的挑戰,就是 AI 產品在算力資源上的極度飢渴,圍繞芯片和算力的巨大需求。

這也是本輪牛市週期,分布式算力項目的漲勢冠絕整體 AI 賽道的主要原因。

分布式計算(Decentralized Compute)的商業必要性

AI 需要大量的計算資源,無論是用於訓練模型還是進行推理。

而在大語言模型的訓練實踐中,有一個事實已經得到確認:只要數據參數的規模足夠大,大語言模型就會湧現出一些之前沒有的能力。每一代 GPT 的能力相比上一代的指數型躍遷,背後就是模型訓練的計算量的指數級增長。

DeepMind 和斯坦福大學的研究顯示,不同的大語言模型,在面對不同的任務(運算、波斯語問答、自然語言理解等)時,只要把模型訓練時的模型參數規模加大(對應地,訓練的計算量也加大了),在訓練量達不到 10^22 FLOPs(FLOPs 指每秒浮點運算量,用於衡量計算性能)之前,任何任務的表現都和隨機給出答案是差不多的;而一旦參數規模超越那個規模的臨界值後,任務表現就急劇提升,不論哪個語言模型都是這樣。

來源:Emergent Abilities of Large Language Models

來源:Emergent Abilities of Large Language Models

也正是在算力上「大力出奇跡」的規律和實踐的驗證,讓 OpenAI 的創始人 Sam Altman 提出了要募集 7 萬億美金,構建一個超過目前臺積電 10 倍規模的先進芯片廠(該部分預計花費 1.5 萬億),並用剩餘資金用於芯片的生產和模型訓練。

除了 AI 模型的訓練需要算力之外,模型的推理過程本身也需要很大的算力(盡管相比訓練的計算量要小),因此對芯片和算力的飢渴成爲了 AI 賽道參與者的常態。

相對於中心化的 AI 算力提供方如 Amazon Web Services、Google Cloud Platform、微軟的 Azure 等,分布式 AI 計算的主要價值主張包括:

  • 可訪問性:使用 AWS、GCP 或 Azure 等雲服務獲取算力芯片的訪問權限通常需要幾周時間,而且流行的 GPU 型號經常無貨。此外爲了拿到算力,消費者往往需要跟這些大公司籤訂長期、缺少彈性的合同。而分布式算力平台可以提供彈性的硬件選擇,有更強的可訪問性。
  • 定價低:由於利用的是閒置芯片,再疊加網路協議方對芯片和算力供給方的代幣補貼,分布式算力網路可能可以提供更爲低廉的算力。
  • 抗審查:目前尖端算力芯片和供應被大型科技公司所壟斷,加上以美國爲代表的政府正在加大對 AI 算力服務的審查,AI 算力能夠被分布式、彈性、自由地獲取,逐漸成爲一個顯性需求,這也是基於 web3 的算力服務平台的核心價值主張。

如果說化石能源是工業時代的血液,那算力或將是由 AI 開啓的新數字時代的血液,算力的供應將成爲 AI 時代的基礎設施。正如穩定幣成爲法幣在 Web3 時代的一個茁壯生長的旁支,分布式的算力市場是否會成爲快速成長的 AI 算力市場的一個旁支?

由於這還是一個相當早期的市場,一切都還有待觀察。但是以下幾個因素可能會對分布式算力的敘事或是市場採用起到刺激作用:

  • GPU 持續的供需緊張。GPU 的持續供應緊張,或許會推動一些開發者轉向嘗試分布式的算力平台。
  • 監管擴張。想從大型的雲算力平台獲取 AI 算力服務,必須經過 KYC 以及層層審查。這反而可能促成分布式算力平台的採用,尤其是一些受到限制和制裁的地區。
  • 代幣價格的刺激。牛市週期代幣價格的漲,會提高平台對 GPU 供給端的補貼價值,進而吸引更多供給方進入市場,提高市場的規模,降低消費者的實際購買價格。

但同時,分布式算力平台的挑戰也相當明顯:

技術和工程難題

  • 工作驗證問題:深度學習模型的計算,由於層級化的結構,每層的輸出都作爲後一層的輸入,因此驗證計算的有效性需要執行之前的所有工作,無法簡單有效地進行驗證。爲了解決這個問題,分布式計算平台需要開發新的算法或使用近似驗證技術,這些技術可以提供結果正確性的概率保證,而不是絕對的確定性。
  • 並行化難題:分布式算力平台匯聚的是長尾的芯片供給,也就注定了單個設備所能提供的算力比較有限,單個芯片供給方幾乎短時間獨立完成 AI 模型的訓練或推理任務,所以必須通過並行化的手段來拆解和分配任務,縮短總的完成時間。而並行化又必然面臨任務如何分解(尤其是復雜的深度學習任務)、數據依賴性、設備之間額外的通信成本等一系列問題。
  • 隱私保護問題:如何保證採購方的數據以及模型不暴露給任務的接收方?

監管合規難題

  • 分布式計算平台由於其供給和採購雙邊市場的無許可性,一方面可以作爲賣點吸引到部分客戶。另一方面則可能隨着 AI 監管規範的完善,成爲政府整頓的對象。此外,部分 GPU 的供應商也會擔心自己出租的算力資源,是否被提供給了被制裁的商業或個人。

總的來說,分布式計算平台的消費者大多是專業的開發者,或是中小型的機構,與購買加密貨幣和 NFT 的加密投資者們不同,這類用戶對於協議所能提供的服務的穩定性、持續性有更高的要求,價格未必是他們決策的主要動機。目前來看,分布式計算平台們要獲得這類用戶的認可,仍然有較長的路要走。

接下來,我們就一個本輪週期的新分布式算力項目 IO.NET 進行項目信息的梳理和分析,並基於目前市場上同賽道的 AI 項目和分布式計算項目,測算其上市後可能的估值水平。

2.分布式 AI 算力平台:IO.NET

2.1 項目定位

IO.NET 是一個去中心化計算網路,其構建了一個圍繞芯片的雙邊市場,供給端是分布在全球的芯片(GPU 爲主,也有 CPU 以及蘋果的 iGPU 等)算力,需求端是希望完成 AI 模型訓練或推理任務的人工智能工程師。

在 IO.NET 的官網上,它這樣寫道:

Our Mission

Putting together one million GPUs in a DePIN – decentralized physical infrastructure network.

其使命是把百萬數量級的 GPU 整合到它的 DePIN 網路中。

與現有的雲 AI 算力服務商相比,其對外強調的主要賣點在於:

  • 彈性組合:AI 工程師可以自由挑選、組合自己所需要的芯片來組成「集羣」,來完成自己的計算任務
  • 部署迅速:無需數周的審批和等待(目前 AWS 等中心化廠商的情況),在幾十秒內就可以完成部署,開始任務
  • 服務低價:服務的成本比主流廠商低 90%

此外,IO.NET 未來還計劃上線 AI 模型商店等服務。

2.2 產品機制和業務數據

產品機制和部署體驗

與亞馬遜雲、谷歌雲、阿裏雲一樣,IO.NET 提供的計算服務叫 IO Cloud。IO Cloud 是一個分布式的、去中心化的芯片網路,能夠執行基於 Python 的機器學習代碼,運行 AI 和機器學習程序。

IO Cloud 的基本業務模塊叫做集羣(Clusters),Clusters 是一個可以自我協調完成計算任務的 GPU 羣組,人工智能工程師可以根據自己的需求來自定義想要的集羣。

IO.NET 的產品界面的用戶友好度很高,如果你要部署屬於自己的芯片集羣,來完成 AI 計算任務,在進入它的 Clusters(集羣)產品頁面後,就可以開始按需配置你要的芯片集羣。

頁面信息:https://cloud.io.net/cloud/clusters/create-cluster,下同

首先你需要選擇自己的任務場景,目前有三個類型可供選擇:

  • General(通用型):提供了一個比較通用的環境,適合早期不確定具體資源需求的項目階段。
  • Train(訓練型):專爲機器學習模型的訓練和微調而設計的集羣。這個選項可以提供更多的 GPU 資源、更高的內存容量和 / 或更快的網路連接,以便於處理這些高強度的計算任務。
  • Inference(推理型):專爲低延遲推理和重負載工作設計的集羣。在機器學習的上下文中,推理指的是使用訓練好的模型來進行預測或分析新數據,並提供反饋。因此,這個選項會專注於優化延遲和吞吐量,以便於支持實時或近實時的數據處理需求。

然後,你需要選擇芯片集羣的供應方,目前 IO.NET 與 Render Network 以及 FIL 的礦工網路達成了合作,因此用戶可以選擇 IO.NET 或另外兩個網路的芯片來作爲自己計算集羣的供應方,相當於 IO.NET 扮演了一個聚合器的角色(但截至筆者撰文時,Filecon 服務暫時下線中)。值得一提的是,根據頁面顯示,目前 IO.NET 在線可用 GPU 數量爲 20 萬 +,而 Render Network 的可用 GPU 數量爲 3700+。

再接下來就進入了集羣的芯片硬件選擇環節,目前 IO.NET 列出可供選擇的硬件類型僅有 GPU,不包括 CPU 或是蘋果的 iGPU(M1、M2 等),而 GPU 也主要以英偉達的產品爲主。

在官方列出、且可用的 GPU 硬件選項中,根據筆者測試的當日數據,IO.NET 網路總在線的可用數量的 GPU 數量爲 206001 張。其中可用量最多的是 GeForce RTX 4090(45250 張),其次是 GeForce RTX 3090 Ti(30779 張)。

此外,在處理 AI 計算任務如機器學習、深度學習、科學計算上更爲高效的 A100-SXM4-80GB 芯片(市場價 15000$+),在線數有 7965 張。

而英偉達從硬件設計開始就專爲 AI 而生的 H100 80GB HBM3 顯卡(市場價 40000$+),其訓練性能是 A100 的 3.3 倍,推理性能是 A100 的 4.5 倍,實際在線數量爲 86 張。

在選定集羣的硬件類型後,用戶還需要選擇集羣的地區、通信速度、租用的 GPU 數量和時間等參數。

最後,IO.NET 根據綜合的選擇,會爲你提供一個帳單,以筆者的集羣配置爲例:

  • 通用(General)任務場景
  • 16 張 A100-SXM4-80GB 芯片
  • 最高連接速度(Ultra High Speed)
  • 地理位置美國
  • 租用時間爲 1 周

該總帳單價格爲 3311.6$,單張卡的時租單價爲 1.232$

而 A100-SXM4-80GB 在亞馬遜雲、谷歌雲和微軟 Azure 的單卡時租價格分別爲 5.12$、5.07$ 和 3.67$(數據來源:https://cloud-gpus.com/,實際價格會根據合約細節條款產生變化)。

因此僅就價格來說,IO.NET 的芯片算力確實比主流廠商便宜不少,且供給的組合與採購也非常有彈性,操作也很容易上手。

業務情況

供給端情況

截至今年 4 月 4 日,根據官方數據,IO.NET 在供應端的 GPU 總供給爲 371027 張,CPU 供給爲 42321 張。此外,Render Network 作爲其合作夥伴,還有 9997 張 GPU 和 776 張 CPU 接入了網路的供給。

數據來源:https://cloud.io.net/explorer/home,下同

筆者撰文時,IO.NET 接入的 GPU 總量中的 214387 處於在線狀態,在線率達到了 57.8%。來自 Render Network 的 GPU 的在線率則爲 45.1%。

以上供應端的數據意味着什麼?

爲了進行對比,我們再引入另一個上線時間更久的老牌分布式計算項目 Akash Network 來進行對比。

Akash Network 早在 2020 年就上線了主網,最初主要專注於 CPU 和存儲的分布式服務。2023 年 6 月,其推出了 GPU 服務的測試網,並於同年 9 月上線了 GPU 分布式算力的主網。

數據來源:https://stats.akash.network/provider-graph/graphics-gpu

根據 Akash 官方數據,其 GPU 網路推出以來,供應端盡管持續增長,但截至目前爲止 GPU 總接入數量僅爲 365 張。

從 GPU 的供應量來看,IO.NET 要比 Akash Network 高出了好幾個數量級,已經是分布式 GPU 算力賽道最大的供應網路。

需求端情況

不過從需求端來看,IO.NET 依舊處於市場培育的早期階段,目前實際使用 IO.NET 來執行計算任務的總量不多。大部分在線的 GPU 的任務負載量爲 0%,只有 A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3 四款芯片有在處理任務。且除了 A100 PCIe 80GB K8S 之外,其他三款芯片的負載量均不到 20%。

而官方當日披露的網路壓力值爲 0%,意味着大部分芯片供應都處於在線待機狀態。

而在網絡費用規模上,IO.NET 已經產生了 586029$ 的服務費用,近一日的費用爲 3200$。

數據來源:https://cloud.io.net/explorer/clusters

以上網路結算費用的規模,無論是總量還是日交易量,均與 Akash 處在同一個數量級,不過 Akash 的大部分網路收入來自於 CPU 的部分,Akash 的 CPU 供應量有 2 萬多張。

數據來源:https://stats.akash.network/

此外,IO.NET 還披露了網路處理的 AI 推理任務的業務數據,截至目前其已經處理和驗證的推理任務數量超過 23 萬個, 不過這部分業務量大部分都產生於 IO.NET 所贊助的項目 BC8.AI。

數據來源:https://cloud.io.net/explorer/inferences

從目前的業務數據來看,IO.NET 的供給端擴張順利,在空投預期和代號「Ignition」的社區活動刺激下,讓其迅速地匯聚起了大量的 AI 芯片算力。而其在需求端的拓展仍處於早期階段,有機需求目前還不足。至於目前需求端的不足,是由於消費端的拓展還未開始,還是由於目前的服務體驗尚不穩定,因此缺少大規模的採用,這點仍需要評估。

不過考慮到 AI 算力的落差短期內較難填補,有大量的 AI 工程師和項目在尋求替代方案,可能會對去中心化的服務商產生興趣,加上 IO.NET 目前尚未開展對需求端的經濟和活動刺激,以及產品體驗的逐漸提升,後續供需兩端的逐漸匹配仍然是值得期待的。

2.3 團隊背景和融資情況

團隊情況

IO.NET 的核心團隊成立之初的業務是量化交易,在 2022 年 6 月之前,他們一直專注於爲股票和加密資產開發機構級的量化交易系統。出於系統後端對計算能力的需求,團隊開始探索去中心化計算的可能性,並且最終把目光落在了降低 GPU 算力服務的成本這個具體問題上。

創始人&CEO:Ahmad Shadid

Ahmad Shadid 在 IO.NET 之前一直從事量化和金融工程相關的工作,同時還是以太坊基金的志願者。

CMO&首席戰略官:Garrison Yang

Garrison Yang 在今年 3 月才正式加入 IO.NET,他此前是 Avalanche 的戰略和增長 VP,畢業於加州大學聖巴巴拉分校。

COO:Tory Green

Tory Green 是 io.net 首席運營官,此前是 Hum Capital 首席運營官、Fox Mobile Group 企業發展與戰略總監,畢業於斯坦福。

從 IO.NET 的 Linkedin 信息來看,團隊總部位於美國紐約,在舊金山有分公司,目前團隊人員規模在 50 人以上。

融資情況

IO.NET 截至目前僅披露了一輪融資,即今年 3 月完成的 A 輪估值 10 億美金融資,共募集了 3000 萬美金,由 Hack VC 領投,其他參投方包括 Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures 和 ArkStream Capital 等。

值得一說的是,或許是因爲收到了 Aptos 基金會的投資,原本在 Solana 上進行結算記帳的 BC8.AI 項目,已經轉換到了同樣的高性能 L1 Aptos 上進行。

2.4 估值推算

根據此前創始人兼 CEO Ahmad Shadid 的說法,IO.NET 將在 4 月底推出代幣。

IO.NET 有兩個可以作爲估值參考的標的項目:Render Network 和 Akash Network,它們都是代表性的分布式計算項目。

我們可以用兩種方式推演 IO.NET 的市值區間:1.市銷比,即:市值 / 收入比;2.市值 / 網路芯片數比。

先來看基於市銷比的估值推演:

從市銷比的角度來看,Akash 可以作爲 IO.NET 的估值區間的下限,而 Render 則作爲估值的高位定價參考,其 FDV 區間爲 16.7 億~59.3 億美金。

但考慮到 IO.NET 項目更新,敘事更熱,加上早期流通市值較小,以及目前更大的供應端規模,其 FDV 超過 Render 的可能性並不小。

再看另一個對比估值的角度,即「市芯比」。

在 AI 算力求大於供的市場背景下,分布式 AI 算力網路最重要的要素是 GPU 供應端的規模,因此我們可以以「市芯比」來橫向對比,用「項目總市值與網路內芯片的數量之比」,來推演 IO.NET 可能的估值區間,供讀者作爲一個市值參考。

如果以市芯比來推算 IO.NET 的市值區間,IO.NET 以 Render Network 的市芯比爲上限,以 Akash Network 爲下限,其 FDV 區間爲 206 億~1975 億美金。

相信再看好 IO.NET 項目讀者,都會認爲這是一個極度樂觀的市值推算。

而且我們需要考慮到,目前 IO.NET 如此龐大的芯片在線張數,有受到空投預期以及激勵活動的刺激,在項目正式上線後其供應端的實際在線數仍然需要觀察。

因此總體來說,從市銷比的角度進行的估值測算可能更有參考性。

IO.NET 作爲疊加了 AI+DePIN+Solana 生態三重光環的項目,其上線後的市值表現究竟如何,讓我們拭目以待。

參考信息

Dephi Digital:The Real Merge

Galaxy:Understanding the Intersection of Crypto and AI

聲明:

  1. 本文轉載自panews],著作權歸屬原作者[Alex Xu],如對轉載有異議,請聯系Gate Learn團隊,團隊會根據相關流程盡速處理。

  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。

  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得復制、傳播或抄襲經翻譯文章。

了解 IO.NET: AI與Web3的融合

新手4/23/2024, 10:44:52 AM
文章深入探討了AI與Web3結合的商業必要性,強調了分布式算力服務的重要性和面臨的挑戰。特別關注了IO.NET項目,這是一個分布式AI算力平台,旨在通過代幣模型激勵匯聚AI算力,提供彈性、快速部署和低成本的AI計算服務。文章分析了IO.NET的產品邏輯、團隊背景、融資情況,並對其潛在市值進行了預測。此外,文章還討論了分布式計算市場的發展趨勢和可能的影響因素。

引言

在我的上一篇文章中,提到本輪加密牛市週期與前兩輪週期相比,缺少足夠有影響力的新商業和新資產敘事。AI 是本輪 Web3 領域少有的新敘事之一,本文筆者將結合今年的熱點 AI 項目 IO.NET,嘗試梳理關於以下 2 個問題的思考:

  • AI+Web3 在商業上的必要性
  • 分布式算力服務的必要性和挑戰

其次,筆者將梳理 AI 分布式算力的代表項目:IO.NET 項目的關鍵信息,包括產品邏輯、競品情況和項目背景,並就項目的估值進行推演。

本文關於 AI 和 Web3 結合一節的部分思考,受到了 Delphi Digital 研究員 Michael rinko 所寫的《The Real Merge》的啓發。本文的部分觀點存在對該文章的消化和引述,推薦讀者閱讀原文。

本文爲筆者截至發表時的階段性思考,未來可能可能發生改變,且觀點具有極強的主觀性,亦可能存在事實、數據、推理邏輯的錯誤,請勿作爲投資參考,歡迎同業的批評和探討。

以下爲正文部分。

1.商業邏輯:AI 和 Web3 的結合點

1.1 2023:AI 造就的新「奇跡年」

回看人類發展史,一旦科技實現了突破性進展,從個體日常生活,到各個產業格局,再到整個人類文明,都會跟着發生天翻地覆的變化。

人類歷史中有兩個重要年份,分別是 1666 年和 1905 年,如今它們被稱爲科技史上的兩大「奇跡年」。

1666 年作爲奇跡年,是因爲牛頓的科學成果在該年集中式地湧現。這一年,他開闢了光學這個物理分支,創立了微積分這個數學分支,導出了引力公式這個現代自然科學的基礎定律。這當中無論哪一項都是未來百年人類科學發展的奠基式貢獻,大大加速了整體科學的發展。

第二個奇跡年是 1905 年,彼時僅僅 26 歲的愛因斯坦在《物理學年鑑》上連續發表 4 篇論文,分別涉及光電效應(爲量子力學奠基)、布朗運動(成爲分析隨機過程的重要引用)、狹義相對論和質能方程(也就是那個知名公式 E=MC^2)。在後世評價中,這四篇論文每一篇都超過諾貝爾物理學獎的平均水平(愛因斯坦本人也因爲光電效應論文獲得了諾貝爾獎),人類文明的歷史進程再一次被大大推進了好幾步。

而剛剛過去的 2023 年,大概率也會因爲 ChatGPT,而被稱之爲又一個「奇跡年」。

我們把 2023 年看做人類科技史上的有一個「奇跡年」,不僅是因爲 GPT 在自然語言理解和生成上的巨大進步,更是因爲人類從 GPT 的進化中摸清了大語言模型能力增長的規律——即通過擴大模型參數和訓練數據,就能指數級別提升模型的能力——且這一進程短期還看不到瓶頸(只要算力夠用的話)。

該能力遠不至於理解語言和生成對話,還能被廣泛地交叉用於各類科技領域,以大語言模型在生物領域的應用爲例:

  • 2018 年,諾貝爾化學獎得主弗朗西斯·阿諾德在頒獎儀式上才說道:「今天我們在實際應用中可以閱讀、寫入和編輯任何 DNA 序列,但我們還無法通過它創作(compose it)。」僅僅在他講話的 5 年後,2023 年,來自斯坦福大學和硅谷的 AI 創業企業 Salesforce Research 的研究者,在《自然 - 生物技術》發表論文,他們通過基於 GPT3 微調而成的大語言模型,從 0 創造出了全新的 100 萬種蛋白質,並從中尋找到 2 種結構截然不同、卻都具有殺菌能力的蛋白質,有希望成爲抗生素之外的細菌對抗方案。也就是說:在 AI 的幫助下,蛋白質「創造」的瓶頸突破了。
  • 而在此前,人工智能 AlphaFold 算法在 18 個月內,把地球上幾乎所有的 2.14 億種蛋白質結構都做了預測,這項成果是過往所有人類結構生物學家工作成果的幾百倍。

有了基於 AI 的各類模型,從生物科技、材料科學、藥物研發等硬科技,再到法律、藝術等人文領域,必將迎來翻天覆地的變革,而 2023 正是這一切的元年。

我們都知道,近百年來人類在財富上的創造能力是指數級別增長的,而 AI 技術的快速成熟,必然會進一步加速這一進程。

全球 GDP 總量走勢圖,數據來源:世界銀行

1.2 AI 與 Crypto 的結合

要從本質上理解 AI 與 Crypto 結合的必要性,可以從兩者互補的特性開始。

AI 和 Crypto 特性的互補

AI 有三個屬性:

  • 隨機性:AI 具有隨機性,其內容生產的機制背後是一個難以復現、探查的黑盒,因此結果也具有隨機性
  • 資源密集:AI 是資源密集型產業,需要大量的能源、芯片、算力
  • 類人智能:AI(很快將)能夠通過圖靈測試,此後,人機難辨 *

※2023 年 10 月 30 日,美國加州大學聖迭戈分校的研究小組發布了關於 GPT-3.5 和 GPT-4.0 的圖靈測試結果(測試報告)。GPT4.0 成績爲 41%,距離及格線 50% 僅差 9%,同項目人類測試成績爲 63%。本圖靈測試的含義爲有百分之多少的人認爲和他聊天的那個對象是真人。如果超過 50%,就說明人羣中至少有一半以上的人認爲那個交談對象是人,而不是機器,即視作通過圖靈測試。

AI 在爲人類創造新的跨越式的生產力的同時,它的這三個屬性也給人類社會帶來的巨大的挑戰,即:

  • 如何驗證、控制 AI 的隨機性,讓隨機性成爲一種優勢而非缺陷
  • 如何滿足 AI 所需要的巨大能源和算力缺口
  • 如何分辨人和機器

而 Crypto 和區塊鏈經濟的特性,或許正好是解決 AI 帶來的挑戰的良藥,加密經濟具有以下 3 個特徵:

  • 確定性:業務基於區塊鏈、代碼和智能合約運行,規則和邊界清晰,什麼輸入就有什麼結果,高度確定性
  • 資源配置高效:加密經濟構建了一個龐大的全球自由市場,資源的定價、募集、流轉非常快速,且由於代幣的存在,可以通過激勵加速市場供需的匹配,加速到達臨界點
  • 免信任:帳本公開,代碼開源,人人可便捷驗證,帶來「去信任(trustless)」的系統,而 ZK 技術則避免驗證同時的隱私暴露

接下來通過 3 個例子來說明 AI 和加密經濟的互補性。

例子 A:解決隨機性,基於加密經濟的 AI 代理

AI 代理(AI Agent)即負責基於人類意志,替人類執行工作的人工智能程序(代表性項目有 Fetch.AI)。假設我們要讓自己的 AI 代理處理一筆金融交易,比如「買入 1000 美元的 BTC」。AI 代理可能面臨兩種情況:

情況一,它要對接傳統金融機構(比如貝萊德),購入 BTC ETF,這裏面臨着大量的 AI 代理和中心化機構的適配問題,比如 KYC、資料審查、登入、身分驗證等等,目前來說還是非常麻煩。

情況二,它基於原生加密經濟運行,情況會變得簡單得多,它會通過 Uniswap 或是某個聚合交易平台,直接用你的帳戶籤名、下單完成交易,收到 WBTC(或是其他封裝格式的 BTC),整個過程快捷簡單。實際上,這就是各類 Trading BOT 在做的事情,它們實際上已經扮演了一個初級的 AI 代理的角色,只不過工作專注於交易而已。未來各類交易 BOT 隨着 AI 的融入和演化,必然能執行更多復雜的交易意圖。比如:跟蹤 100 個鏈上的聰明錢地址,分析它們的交易策略和成功率,用我地址裏的 10% 資金在一周內執行類似交易,並在發現效果不佳時停止,並總結失敗的可能原因。

AI 在區塊鏈的系統中運行會更加良好,本質上是因爲加密經濟規則的清晰性,以及系統訪問的無許可。在限定的規則下執行任務,AI 的隨機性帶來的潛在風險也將更小。比如 AI 在棋牌比賽、電子遊戲的表現已經碾壓人類,就是因爲棋牌和遊戲是一個規則清晰的封閉沙盒。而 AI 在自動駕駛上的進展會相對緩慢,因爲開放的外部環境的挑戰更大,我們也更難容忍 AI 處理問題的隨機性。

例子 B:塑造資源,通過代幣激勵聚集資源

BTC 背後的全球的算力網路,其當前的總算力(Hashrate: 576.70 EH/s)超過了任何一個國家的超級計算機的綜合算力。其發展動力來自於簡單、公平的網路激勵。

BTC 網路算力走勢,來源:https://www.coinwarz.com/

除此之外,包括 Mobile 在內的 DePIN 項目們,也正在嘗試通過代幣激勵塑造供需兩端的雙邊市場,實現網路效應。本文接下來將重點梳理的 IO.NET,則是爲了匯聚 AI 算力設計的平台,希望通過代幣模型,激發出更多的 AI 算力潛力。

例子 C:開源代碼,引入 ZK,保護隱私的情況下分辨人機

作爲 OpenAI 創始人 Sam Altman 參與的 Web3 項目,Worldcoin 通過硬件設備 Orb,基於人的虹膜生物特徵,通過 ZK 技術生成專屬且匿名的哈希值,用於驗證身分,區別人和機器。今年 3 月初,Web3 藝術項目 Drip 就開始使用 Worldcoin 的 ID,來驗證真人用戶和發放獎勵。

此外,Worldcoin 也在近日開源了其虹膜硬件 Orb 的程序代碼,就用戶生物特徵的安全和隱私提供保證。

總體來說,加密經濟由於代碼和密碼學的確定性、無許可和代幣機制帶來的資源流轉和募集優勢,和基於開源代碼、公開帳本的去信任屬性,已經成爲人類社會面臨 AI 挑戰的一個重要的潛在解決方案。

而且其中最迫在眉睫,商業需求最旺盛的挑戰,就是 AI 產品在算力資源上的極度飢渴,圍繞芯片和算力的巨大需求。

這也是本輪牛市週期,分布式算力項目的漲勢冠絕整體 AI 賽道的主要原因。

分布式計算(Decentralized Compute)的商業必要性

AI 需要大量的計算資源,無論是用於訓練模型還是進行推理。

而在大語言模型的訓練實踐中,有一個事實已經得到確認:只要數據參數的規模足夠大,大語言模型就會湧現出一些之前沒有的能力。每一代 GPT 的能力相比上一代的指數型躍遷,背後就是模型訓練的計算量的指數級增長。

DeepMind 和斯坦福大學的研究顯示,不同的大語言模型,在面對不同的任務(運算、波斯語問答、自然語言理解等)時,只要把模型訓練時的模型參數規模加大(對應地,訓練的計算量也加大了),在訓練量達不到 10^22 FLOPs(FLOPs 指每秒浮點運算量,用於衡量計算性能)之前,任何任務的表現都和隨機給出答案是差不多的;而一旦參數規模超越那個規模的臨界值後,任務表現就急劇提升,不論哪個語言模型都是這樣。

來源:Emergent Abilities of Large Language Models

來源:Emergent Abilities of Large Language Models

也正是在算力上「大力出奇跡」的規律和實踐的驗證,讓 OpenAI 的創始人 Sam Altman 提出了要募集 7 萬億美金,構建一個超過目前臺積電 10 倍規模的先進芯片廠(該部分預計花費 1.5 萬億),並用剩餘資金用於芯片的生產和模型訓練。

除了 AI 模型的訓練需要算力之外,模型的推理過程本身也需要很大的算力(盡管相比訓練的計算量要小),因此對芯片和算力的飢渴成爲了 AI 賽道參與者的常態。

相對於中心化的 AI 算力提供方如 Amazon Web Services、Google Cloud Platform、微軟的 Azure 等,分布式 AI 計算的主要價值主張包括:

  • 可訪問性:使用 AWS、GCP 或 Azure 等雲服務獲取算力芯片的訪問權限通常需要幾周時間,而且流行的 GPU 型號經常無貨。此外爲了拿到算力,消費者往往需要跟這些大公司籤訂長期、缺少彈性的合同。而分布式算力平台可以提供彈性的硬件選擇,有更強的可訪問性。
  • 定價低:由於利用的是閒置芯片,再疊加網路協議方對芯片和算力供給方的代幣補貼,分布式算力網路可能可以提供更爲低廉的算力。
  • 抗審查:目前尖端算力芯片和供應被大型科技公司所壟斷,加上以美國爲代表的政府正在加大對 AI 算力服務的審查,AI 算力能夠被分布式、彈性、自由地獲取,逐漸成爲一個顯性需求,這也是基於 web3 的算力服務平台的核心價值主張。

如果說化石能源是工業時代的血液,那算力或將是由 AI 開啓的新數字時代的血液,算力的供應將成爲 AI 時代的基礎設施。正如穩定幣成爲法幣在 Web3 時代的一個茁壯生長的旁支,分布式的算力市場是否會成爲快速成長的 AI 算力市場的一個旁支?

由於這還是一個相當早期的市場,一切都還有待觀察。但是以下幾個因素可能會對分布式算力的敘事或是市場採用起到刺激作用:

  • GPU 持續的供需緊張。GPU 的持續供應緊張,或許會推動一些開發者轉向嘗試分布式的算力平台。
  • 監管擴張。想從大型的雲算力平台獲取 AI 算力服務,必須經過 KYC 以及層層審查。這反而可能促成分布式算力平台的採用,尤其是一些受到限制和制裁的地區。
  • 代幣價格的刺激。牛市週期代幣價格的漲,會提高平台對 GPU 供給端的補貼價值,進而吸引更多供給方進入市場,提高市場的規模,降低消費者的實際購買價格。

但同時,分布式算力平台的挑戰也相當明顯:

技術和工程難題

  • 工作驗證問題:深度學習模型的計算,由於層級化的結構,每層的輸出都作爲後一層的輸入,因此驗證計算的有效性需要執行之前的所有工作,無法簡單有效地進行驗證。爲了解決這個問題,分布式計算平台需要開發新的算法或使用近似驗證技術,這些技術可以提供結果正確性的概率保證,而不是絕對的確定性。
  • 並行化難題:分布式算力平台匯聚的是長尾的芯片供給,也就注定了單個設備所能提供的算力比較有限,單個芯片供給方幾乎短時間獨立完成 AI 模型的訓練或推理任務,所以必須通過並行化的手段來拆解和分配任務,縮短總的完成時間。而並行化又必然面臨任務如何分解(尤其是復雜的深度學習任務)、數據依賴性、設備之間額外的通信成本等一系列問題。
  • 隱私保護問題:如何保證採購方的數據以及模型不暴露給任務的接收方?

監管合規難題

  • 分布式計算平台由於其供給和採購雙邊市場的無許可性,一方面可以作爲賣點吸引到部分客戶。另一方面則可能隨着 AI 監管規範的完善,成爲政府整頓的對象。此外,部分 GPU 的供應商也會擔心自己出租的算力資源,是否被提供給了被制裁的商業或個人。

總的來說,分布式計算平台的消費者大多是專業的開發者,或是中小型的機構,與購買加密貨幣和 NFT 的加密投資者們不同,這類用戶對於協議所能提供的服務的穩定性、持續性有更高的要求,價格未必是他們決策的主要動機。目前來看,分布式計算平台們要獲得這類用戶的認可,仍然有較長的路要走。

接下來,我們就一個本輪週期的新分布式算力項目 IO.NET 進行項目信息的梳理和分析,並基於目前市場上同賽道的 AI 項目和分布式計算項目,測算其上市後可能的估值水平。

2.分布式 AI 算力平台:IO.NET

2.1 項目定位

IO.NET 是一個去中心化計算網路,其構建了一個圍繞芯片的雙邊市場,供給端是分布在全球的芯片(GPU 爲主,也有 CPU 以及蘋果的 iGPU 等)算力,需求端是希望完成 AI 模型訓練或推理任務的人工智能工程師。

在 IO.NET 的官網上,它這樣寫道:

Our Mission

Putting together one million GPUs in a DePIN – decentralized physical infrastructure network.

其使命是把百萬數量級的 GPU 整合到它的 DePIN 網路中。

與現有的雲 AI 算力服務商相比,其對外強調的主要賣點在於:

  • 彈性組合:AI 工程師可以自由挑選、組合自己所需要的芯片來組成「集羣」,來完成自己的計算任務
  • 部署迅速:無需數周的審批和等待(目前 AWS 等中心化廠商的情況),在幾十秒內就可以完成部署,開始任務
  • 服務低價:服務的成本比主流廠商低 90%

此外,IO.NET 未來還計劃上線 AI 模型商店等服務。

2.2 產品機制和業務數據

產品機制和部署體驗

與亞馬遜雲、谷歌雲、阿裏雲一樣,IO.NET 提供的計算服務叫 IO Cloud。IO Cloud 是一個分布式的、去中心化的芯片網路,能夠執行基於 Python 的機器學習代碼,運行 AI 和機器學習程序。

IO Cloud 的基本業務模塊叫做集羣(Clusters),Clusters 是一個可以自我協調完成計算任務的 GPU 羣組,人工智能工程師可以根據自己的需求來自定義想要的集羣。

IO.NET 的產品界面的用戶友好度很高,如果你要部署屬於自己的芯片集羣,來完成 AI 計算任務,在進入它的 Clusters(集羣)產品頁面後,就可以開始按需配置你要的芯片集羣。

頁面信息:https://cloud.io.net/cloud/clusters/create-cluster,下同

首先你需要選擇自己的任務場景,目前有三個類型可供選擇:

  • General(通用型):提供了一個比較通用的環境,適合早期不確定具體資源需求的項目階段。
  • Train(訓練型):專爲機器學習模型的訓練和微調而設計的集羣。這個選項可以提供更多的 GPU 資源、更高的內存容量和 / 或更快的網路連接,以便於處理這些高強度的計算任務。
  • Inference(推理型):專爲低延遲推理和重負載工作設計的集羣。在機器學習的上下文中,推理指的是使用訓練好的模型來進行預測或分析新數據,並提供反饋。因此,這個選項會專注於優化延遲和吞吐量,以便於支持實時或近實時的數據處理需求。

然後,你需要選擇芯片集羣的供應方,目前 IO.NET 與 Render Network 以及 FIL 的礦工網路達成了合作,因此用戶可以選擇 IO.NET 或另外兩個網路的芯片來作爲自己計算集羣的供應方,相當於 IO.NET 扮演了一個聚合器的角色(但截至筆者撰文時,Filecon 服務暫時下線中)。值得一提的是,根據頁面顯示,目前 IO.NET 在線可用 GPU 數量爲 20 萬 +,而 Render Network 的可用 GPU 數量爲 3700+。

再接下來就進入了集羣的芯片硬件選擇環節,目前 IO.NET 列出可供選擇的硬件類型僅有 GPU,不包括 CPU 或是蘋果的 iGPU(M1、M2 等),而 GPU 也主要以英偉達的產品爲主。

在官方列出、且可用的 GPU 硬件選項中,根據筆者測試的當日數據,IO.NET 網路總在線的可用數量的 GPU 數量爲 206001 張。其中可用量最多的是 GeForce RTX 4090(45250 張),其次是 GeForce RTX 3090 Ti(30779 張)。

此外,在處理 AI 計算任務如機器學習、深度學習、科學計算上更爲高效的 A100-SXM4-80GB 芯片(市場價 15000$+),在線數有 7965 張。

而英偉達從硬件設計開始就專爲 AI 而生的 H100 80GB HBM3 顯卡(市場價 40000$+),其訓練性能是 A100 的 3.3 倍,推理性能是 A100 的 4.5 倍,實際在線數量爲 86 張。

在選定集羣的硬件類型後,用戶還需要選擇集羣的地區、通信速度、租用的 GPU 數量和時間等參數。

最後,IO.NET 根據綜合的選擇,會爲你提供一個帳單,以筆者的集羣配置爲例:

  • 通用(General)任務場景
  • 16 張 A100-SXM4-80GB 芯片
  • 最高連接速度(Ultra High Speed)
  • 地理位置美國
  • 租用時間爲 1 周

該總帳單價格爲 3311.6$,單張卡的時租單價爲 1.232$

而 A100-SXM4-80GB 在亞馬遜雲、谷歌雲和微軟 Azure 的單卡時租價格分別爲 5.12$、5.07$ 和 3.67$(數據來源:https://cloud-gpus.com/,實際價格會根據合約細節條款產生變化)。

因此僅就價格來說,IO.NET 的芯片算力確實比主流廠商便宜不少,且供給的組合與採購也非常有彈性,操作也很容易上手。

業務情況

供給端情況

截至今年 4 月 4 日,根據官方數據,IO.NET 在供應端的 GPU 總供給爲 371027 張,CPU 供給爲 42321 張。此外,Render Network 作爲其合作夥伴,還有 9997 張 GPU 和 776 張 CPU 接入了網路的供給。

數據來源:https://cloud.io.net/explorer/home,下同

筆者撰文時,IO.NET 接入的 GPU 總量中的 214387 處於在線狀態,在線率達到了 57.8%。來自 Render Network 的 GPU 的在線率則爲 45.1%。

以上供應端的數據意味着什麼?

爲了進行對比,我們再引入另一個上線時間更久的老牌分布式計算項目 Akash Network 來進行對比。

Akash Network 早在 2020 年就上線了主網,最初主要專注於 CPU 和存儲的分布式服務。2023 年 6 月,其推出了 GPU 服務的測試網,並於同年 9 月上線了 GPU 分布式算力的主網。

數據來源:https://stats.akash.network/provider-graph/graphics-gpu

根據 Akash 官方數據,其 GPU 網路推出以來,供應端盡管持續增長,但截至目前爲止 GPU 總接入數量僅爲 365 張。

從 GPU 的供應量來看,IO.NET 要比 Akash Network 高出了好幾個數量級,已經是分布式 GPU 算力賽道最大的供應網路。

需求端情況

不過從需求端來看,IO.NET 依舊處於市場培育的早期階段,目前實際使用 IO.NET 來執行計算任務的總量不多。大部分在線的 GPU 的任務負載量爲 0%,只有 A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3 四款芯片有在處理任務。且除了 A100 PCIe 80GB K8S 之外,其他三款芯片的負載量均不到 20%。

而官方當日披露的網路壓力值爲 0%,意味着大部分芯片供應都處於在線待機狀態。

而在網絡費用規模上,IO.NET 已經產生了 586029$ 的服務費用,近一日的費用爲 3200$。

數據來源:https://cloud.io.net/explorer/clusters

以上網路結算費用的規模,無論是總量還是日交易量,均與 Akash 處在同一個數量級,不過 Akash 的大部分網路收入來自於 CPU 的部分,Akash 的 CPU 供應量有 2 萬多張。

數據來源:https://stats.akash.network/

此外,IO.NET 還披露了網路處理的 AI 推理任務的業務數據,截至目前其已經處理和驗證的推理任務數量超過 23 萬個, 不過這部分業務量大部分都產生於 IO.NET 所贊助的項目 BC8.AI。

數據來源:https://cloud.io.net/explorer/inferences

從目前的業務數據來看,IO.NET 的供給端擴張順利,在空投預期和代號「Ignition」的社區活動刺激下,讓其迅速地匯聚起了大量的 AI 芯片算力。而其在需求端的拓展仍處於早期階段,有機需求目前還不足。至於目前需求端的不足,是由於消費端的拓展還未開始,還是由於目前的服務體驗尚不穩定,因此缺少大規模的採用,這點仍需要評估。

不過考慮到 AI 算力的落差短期內較難填補,有大量的 AI 工程師和項目在尋求替代方案,可能會對去中心化的服務商產生興趣,加上 IO.NET 目前尚未開展對需求端的經濟和活動刺激,以及產品體驗的逐漸提升,後續供需兩端的逐漸匹配仍然是值得期待的。

2.3 團隊背景和融資情況

團隊情況

IO.NET 的核心團隊成立之初的業務是量化交易,在 2022 年 6 月之前,他們一直專注於爲股票和加密資產開發機構級的量化交易系統。出於系統後端對計算能力的需求,團隊開始探索去中心化計算的可能性,並且最終把目光落在了降低 GPU 算力服務的成本這個具體問題上。

創始人&CEO:Ahmad Shadid

Ahmad Shadid 在 IO.NET 之前一直從事量化和金融工程相關的工作,同時還是以太坊基金的志願者。

CMO&首席戰略官:Garrison Yang

Garrison Yang 在今年 3 月才正式加入 IO.NET,他此前是 Avalanche 的戰略和增長 VP,畢業於加州大學聖巴巴拉分校。

COO:Tory Green

Tory Green 是 io.net 首席運營官,此前是 Hum Capital 首席運營官、Fox Mobile Group 企業發展與戰略總監,畢業於斯坦福。

從 IO.NET 的 Linkedin 信息來看,團隊總部位於美國紐約,在舊金山有分公司,目前團隊人員規模在 50 人以上。

融資情況

IO.NET 截至目前僅披露了一輪融資,即今年 3 月完成的 A 輪估值 10 億美金融資,共募集了 3000 萬美金,由 Hack VC 領投,其他參投方包括 Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures 和 ArkStream Capital 等。

值得一說的是,或許是因爲收到了 Aptos 基金會的投資,原本在 Solana 上進行結算記帳的 BC8.AI 項目,已經轉換到了同樣的高性能 L1 Aptos 上進行。

2.4 估值推算

根據此前創始人兼 CEO Ahmad Shadid 的說法,IO.NET 將在 4 月底推出代幣。

IO.NET 有兩個可以作爲估值參考的標的項目:Render Network 和 Akash Network,它們都是代表性的分布式計算項目。

我們可以用兩種方式推演 IO.NET 的市值區間:1.市銷比,即:市值 / 收入比;2.市值 / 網路芯片數比。

先來看基於市銷比的估值推演:

從市銷比的角度來看,Akash 可以作爲 IO.NET 的估值區間的下限,而 Render 則作爲估值的高位定價參考,其 FDV 區間爲 16.7 億~59.3 億美金。

但考慮到 IO.NET 項目更新,敘事更熱,加上早期流通市值較小,以及目前更大的供應端規模,其 FDV 超過 Render 的可能性並不小。

再看另一個對比估值的角度,即「市芯比」。

在 AI 算力求大於供的市場背景下,分布式 AI 算力網路最重要的要素是 GPU 供應端的規模,因此我們可以以「市芯比」來橫向對比,用「項目總市值與網路內芯片的數量之比」,來推演 IO.NET 可能的估值區間,供讀者作爲一個市值參考。

如果以市芯比來推算 IO.NET 的市值區間,IO.NET 以 Render Network 的市芯比爲上限,以 Akash Network 爲下限,其 FDV 區間爲 206 億~1975 億美金。

相信再看好 IO.NET 項目讀者,都會認爲這是一個極度樂觀的市值推算。

而且我們需要考慮到,目前 IO.NET 如此龐大的芯片在線張數,有受到空投預期以及激勵活動的刺激,在項目正式上線後其供應端的實際在線數仍然需要觀察。

因此總體來說,從市銷比的角度進行的估值測算可能更有參考性。

IO.NET 作爲疊加了 AI+DePIN+Solana 生態三重光環的項目,其上線後的市值表現究竟如何,讓我們拭目以待。

參考信息

Dephi Digital:The Real Merge

Galaxy:Understanding the Intersection of Crypto and AI

聲明:

  1. 本文轉載自panews],著作權歸屬原作者[Alex Xu],如對轉載有異議,請聯系Gate Learn團隊,團隊會根據相關流程盡速處理。

  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。

  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得復制、傳播或抄襲經翻譯文章。

Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!
It seems that you are attempting to access our services from a Restricted Location where Gate.io is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Thailand, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.