📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
融資千萬美元的 OpenLedger 如何重塑數據價值分配?
撰文:Haotian
數據標注這門「苦活累活」,正在悄悄變成香餑餑?這個由 Polychain 領投,獲得超過 1,120 萬美元融資的 @OpenledgerHQ,用 PoA+infini-gram 的獨特機制,瞄準的正是「數據價值分配」這個被長期忽視的痛點。來,從技術視角科普下:
1)說實話,當前 AI 行業最大的「原罪」就是數據價值分配的不公。OpenLedger 的 PoA(貢獻證明)要做的,就是給數據貢獻建立一套「版權追蹤系統」。
具體而言:數據貢獻者將內容上傳到特定領域的 DataNets,每個數據點都會與貢獻者元數據和內容哈希一起被永久記錄。
當模型基於這些數據集訓練後,歸因過程會在推理階段進行也就是模型生成輸出的時刻。PoA 通過分析匹配範圍或影響分數來追蹤哪些數據點影響了該輸出,這些記錄決定了每個貢獻者數據的比例影響。
當模型通過推理產生費用時,PoA 確保利潤根據每個貢獻者的影響準確分配——創建了一個透明、公平且鏈上的獎勵機制。
換句話說,PoA 解決的是數據經濟學的根本矛盾。過去的邏輯很簡單粗暴——AI 公司免費獲取海量數據,然後靠模型商業化賺得盆滿鉢滿,數據貢獻者卻什麼都拿不到。但 PoA 通過技術手段實現了「數據私有化」,讓每個數據點都能產生明確的經濟價值。
我覺得,這種從「白嫖模式」到「按勞分配」的轉換機制一旦跑通,數據貢獻的激勵邏輯就完全變了。
而且,PoA 採用了分層策略來解決不同規模模型的歸因問題:幾百萬參數的小模型,可以通過分析模型影響函數來估算每個數據點的影響程度,計算量還能勉強承受,而中大型參數模型用這種方法在計算上變得不可行且低效。這時候就必須祭出 Infini-gram 這個大殺器了。
2)問題來了,何爲 infini-gram 技術?它要解決的問題聽起來就很變態:在中大型參數的黑盒模型中,精確追蹤每個輸出 Token 的數據來源。
傳統歸因方法主要靠分析模型影響函數,但在大模型面前基本歇菜。原因很簡單:模型越大,內部計算越復雜,分析成本就指數級增長,在計算上變得不可行且低效。這在商業應用中完全不現實。
Infini-gram 完全換了個思路:既然模型內部太復雜,那就直接在原始數據中找匹配。它基於後綴數組構建索引,用動態選擇的最長匹配後綴替代傳統的固定窗口 n-gram。簡單理解,就是當模型輸出某個序列時,Infini-gram 會爲每個 Token 上下文識別訓練數據中最長的精確匹配。
這樣一來帶來的性能數據着實很驚豔,1.4 萬億 Token 數據集,查詢只需 20 毫秒,存儲每 Token 僅 7 字節。更關鍵的是無需分析模型內部結構,無需復雜計算,就能精確歸因。對那些視模型爲商業機密的 AI 公司來說,這簡直是量身定制的解決方案。
要知道,市面上的數據歸因方案要麼效率低下,要麼精度不夠,要麼需要訪問模型內部。Infini-gram 算是在這三個維度都找到了平衡點,
3)除此之外,我感覺 OpenLedger 提出的 dataNets 鏈上數據集概念特別新潮。不同於傳統數據交易的一錘子買賣,DataNets 讓數據貢獻者可持續享有數據被使用時在推理中的收益分成。
過去數據標注是苦差事,收益微薄且一次性。現在變成了持續收益的資產,激勵邏輯完全不同。
當大部分 AI+Crypto 項目還在做算力租賃、模型訓練這些相對成熟的方向時,OpenLedger 選擇了數據歸因這塊最硬的骨頭。這套技術棧可能會重新定義 AI 數據的供給端。
畢竟在數據質量爲王的時代,誰能解決數據價值分配問題,誰就能吸引到最優質的數據資源。
以上。
總的來說,OpenLedgerPoA + Infini-gram 的組合不僅解決了技術難題,更重要的是爲整個行業提供了全新的價值分配邏輯。
在算力軍備賽逐漸降溫、數據質量競爭愈發激烈的當下,這類技術路線肯定不會是孤品。這個賽道會出現多種方案並行競爭的局面——有的專注歸因精度,有的主打成本效率,有的則在易用性上做文章。各自都在探索數據價值分配的最優解。
最終哪家才能跑出來,說到底還是要看能不能真正吸引到足夠多的數據提供者和開發者。