介紹 Livepeer AI 子網

新手5/28/2024, 2:43:47 AM
Livepeer AI子網是Livepeer推出的一個創新項目,旨在打造首個具備AI計算能力的去中心化視頻處理網路。作爲一個去中心化的視頻直播網路協議,Livepeer自2017年推出以來,一直致力於提供基於區塊鏈的、高性價比的解決方案,以取代傳統的中心化直播。Livepeer AI 子網提供低成本、高性能的處理服務,通過利用 Livepeer 的數千個 GPU 開放網路,解決了中心化 AI 計算的結構性問題。本文詳細介紹了 Livepeer AI 子網的概念、工作原理、建立原因以及如何參與其中。

生成式人工智能的興起標志着視頻創作領域的巨大變革。

自從Open AI的Sora演示了通過輸入文本提示到AI來降低視頻創作障礙的可能性以來,生成式視頻領域的發展速度一直在迅速加快。頂級的開源AI視頻模型Stable Diffusion在短短兩個月內就吸引了超過1000萬用戶。但是,AI視頻工具的有希望的增長面臨着嚴重的挑戰。全球互聯網壟斷公司,包括NVIDIA,Microsoft Azure和Amazon Web Services (AWS),控制着價值490億美元的GPU市場,這推高了價格,造成了全球AI計算瓶頸。

這就是我們推出 Livepeer AI 子網的原因:世界上第一個具有 AI 計算能力的去中心化視頻處理網路。 Livepeer AI 子網利用 Livepeer 的數千個 GPU 的開放網路提供低成本、高性能的處理,解決了集中式 AI 計算的結構性問題。該子網建立在 Livepeer 開創性的去中心化視頻處理網路的架構之上,提供全球可訪問且經濟實惠的開放視頻基礎設施,並通過基於區塊鏈的代幣經濟激勵無限的可擴展性。

那麼什麼是AI子網?讓我們開始吧。

什麼是 Livepeer AI 子網?

AI 子網是 Livepeer 視頻基礎設施網路的一個分叉分支,爲新的去中心化人工智能媒體處理市場和工具的安全開發和測試提供了一個沙盒。

這意味着,雖然更廣泛的 Livepeer 網路將繼續以視頻轉碼和計算爲核心,服務於價值 1000 多億美元的流媒體市場,但 Livepeer AI 子網將滿足對 AI 計算能力日益增長的需求。該子網旨在處理任何生成式人工智能視頻或工作流程改進任務,如縮放、字幕和識別,隨着開發的進展,任何人都可以運行自己的模型,以滿足特定的視頻和媒體任務。

該子網使視頻開發人員能夠向其應用程序添加一套快速增長的生成式 AI 功能,例如文本到圖像、圖像到圖像和圖像到視頻轉換。

生成媒體提示也稱爲人工智能推理任務,是指使用經過訓練的人工智能模型運行、評估或分析新數據以完成任務的過程。這類推理任務的一個例子是,向 Midjourney 這樣的模型輸入描述性文本命令,並根據該命令接收圖像的過程。

Tsunameme.ai 上生成的 AI 生成輸出 - 第一個構建在 Livepeer AI 子網上的演示應用程序。這項工作使用了文本到圖像和圖像到視頻管道。嘗試使用 Livepeer 測試版生成您自己的 AI 媒體,網址爲 https://tsunameme.ai。

Livepeer 的 AI 網路架構旨在將不同的 AI 推理任務組織成離散的任務類型。這些不同任務類型中的每一種都被稱爲管道(pipeline),用於發送、接收和返回作業請求。Livepeer AI 子網還允許 Livepeer Orchestrator 節點運營商通過爲 AI 處理任務部署 GPU 資源來賺取 ETH 和 LPT 收入。

如何在 AI 子網上處理任務的技術工作流程。網關節點將任務傳遞給協調器,協調器可能運行相同或不同管道的多個 AI-Runner Docker 容器。這些管道可能已經擁有所請求的模型,或者可以根據需要動態加載它們。

雖然管道代表特定的作業類型,例如文本到圖像或圖像到視頻,但每個管道中可以運行許多不同的模型以產生不同的結果。 Livepeer 作爲一個網路,支持特定的管道,而開發人員可以選擇他們想要在給定管道中運行的模型。

目前,重點是使用 Huggingface 的 Diffusers 庫開發的擴散(Diffusion)模型,但未來的更新將擴展對其他模型類型的支持。擴散模型是一種強大的人工智能生成模型,常用於生成高質量的圖像和音頻。在此階段的 AI 子網中,鼓勵協調器保持至少一個管道所使用的模型處於激活狀態(“熱啓動”)並在其 GPU 上運行。

點擊這裏 了解有關子網特色工具和模型的更多信息。

AI 子網如何運作?

Livepeer 採用去中心化的按任務付費模式。這種去中心化的市場定價方式使開發人員能夠按需提交任務並支付費用,而不是像中心化模式那樣需要向雲提供商預留昂貴的計算能力。開發人員還可以根據他們所需的網路性能和可用供應量,設定自己願意支付的價格。

該圖說明了 Livepeer 如何根據效率將任務分配給分布式 GPU 網路,而不是通過集中式服務器引導 AI 處理請求。

Livepeer 人工智能網路架構中兩個最重要的組件是:

  • AI Orchestrator 節點:這些節點負責執行人工智能任務。它們將人工智能模型 “預熱”在 GPU 上,以便立即處理,並能在任務到來時動態加載模型,從而優化響應時間和資源利用率。
  • AI 網關節點: 這些節點管理任務流,根據能力和當前負載將任務分配給相應的協調器,確保高效的任務分配和系統可擴展性。

應用程序開發人員可以通過運行自己的 AI 網關節點並根據其 API 構建應用程序,或者通過訪問遠程托管的網關節點服務(如果他們不想托管自己的節點),將 AI 功能添加到他們的應用程序中。

無限的可擴展性

Livepeer AI 網路基礎設施旨在無需許可即可擴展,隨着需求的增加,可以輕鬆集成其他 Orchestrator 和網關節點。它依靠專門的 ai-runner Docker 鏡像來執行 AI 模型,從而簡化了部署並增強了新管道的可擴展性。持續的開發旨在提高性能並擴大容器的功能,以支持日益復雜的人工智能模型和自定義用戶定義的管道。

爲什麼要構建 Livepeer AI 子網?

人工智能視頻工具降低了準入門檻,現在任何人都可以通過幾個字的文本命令,創建過去需要布景、專門工作人員和數小時剪輯的場景。人工智能還能快速改進縮放、幀插值、字幕生成以及許多其他關鍵的視頻制作任務。對這種技術的需求日益增長,但只有少數全球計算壟斷企業能提供可擴展的基礎設施。此外,這些工具的激增只會加劇集中式人工智能計算的全球瓶頸。

除了高度集中的服務器網路固有的單點故障風險外,輕鬆生成的 AI 內容正在醞釀一場信任和真實性危機。這些因素加在一起,對 AI 視頻行業的可持續發展構成了重大風險。Livepeer 的 AI 子網通過專注於上述問題的三個核心解決方案,爲創建可持續、可盈利的開放式 AI 視頻基礎設施開闢了一條先驅之路:

全球可訪問的超低成本基礎設施

Livepeer 打破了 GCP 和 AWS 等提供商的集中式束縛,這些提供商要求您租用、運行和管理他們的 GPU 服務器。AI 子網使 Livepeer 能夠邁出人工智能的第一步,使其轉碼網路上已有的數千個 GPU 發揮作用。

這種提供人工智能計算存取的新穎方式,在節約成本方面的潛力不容小覷。與管理和承擔專用服務器的成本相比,人工智能視頻生成可以簡單地抽象爲單個任務或工作流程。然後,可以根據需求將其提交到人工智能子網上,該子網由 Livepeer 備受贊譽的低成本、高可靠性網路提供支持,該網路每週已經轉碼數百萬分鍾的傳統視頻,並且擁有大量富餘的 GPU 資源可供使用。

由於人工智能初創公司受益於大量風險投資和投資,因此創始人和資助者很容易忽略生成視頻所涉及的巨大成本。但是,一旦初始資金耗盡或市場轉壞,高可靠性和低成本的計算服務對AI視頻的可持續發展就至關重要。憑藉其在去中心化視頻計算領域令人印象深刻的傳統,Livepeer 在提供這種服務方面具有得天獨厚的優勢。

開放且無需許可的人工智能媒體市場

人工智能內容將永遠改變視頻制作方式,這一點毋庸置疑。然而,它將如何、爲何以及以何種方式改變,卻有可能發生在封閉的環境中。

強大的私營公司控制着最傑出的 AI 模型,其中許多都是閉源的。根據物聯網分析研究,NVIDIA 提供了人工智能數據中心驚人的 92% 的 GPU 計算能力,而微軟和 OpenAI 則瓜分了 69% 的基礎模型和平台市場。這種人工智能計算能力的集中式結構會造成單點故障的風險。如果一家公司倒閉或被政府關閉,那麼所有用戶都將受到牽連。

Livepeer 的子網體現了其對開源開發的承諾,這種開發方式具有抗審查性,並利用區塊鏈和通證經濟激勵用戶共享硬件,從而創建一個可無限擴展的 GPU 網路。無論用戶來自哪個國家或受制於哪家公司,這種基礎技術的獲取都應是開放的並可根據需求隨時使用。

內容驗證和真實性

人工智能時代的到來帶來了真實性危機。辨別真假是消費者的負擔,也是平台和創作者的責任。這就是爲什麼需要快速實施全行業解決方案的原因。

Livepeer 已成爲第一個加入 C2PA 的去中心化人工智能基礎設施項目,C2PA 是一個開放的技術標準,爲出版商、創作者和消費者提供了追蹤不同類型媒體來源的能力。 C2PA 的成員包括 TikTok、Adobe、谷歌、索尼、英特爾、BBC、微軟和 OpenAI。 Livepeer 很榮幸能加入 C2PA 技術工作組,並致力於將開放和去中心化的原則引入內容來源和真實性的全球標準制定中。

Livepeer的人工智能子網目前正在制定措施,通過顯示清晰出處線索的本地加密籤名來解決虛假內容問題。

Livepeer 人工智能路線圖

Livepeer AI 子網的推出標志着 Livepeer 在其開放且無需許可的網路上無限擴展去中心化視頻計算市場的願景的一個重要裏程碑。 Livepeer 網路上的 AI 視頻計算路線圖總結爲 3 個不同的開發階段。

第一階段:AI 子網設計和穩定性(已完成)

截至 5 月 1 日,子網概念驗證的設計以及現有 Livepeer Orchestrator 節點運營商的初始集成已經完成。Orchestrator 節點的性能基準測試也已完成,旨在保證網路性能滿足演示應用程序和產品的需求。目前已有超過 20 個高性能 AI Orchestrator 節點處於激活狀態。有關穩定性階段的回顧 [可以在這裏找到]

第二階段:AI 子網優化(進行中)

隨着 AI 子網的啓動,我們現在正致力於提高爲 AI Orchestrator 和 AI 網關節點運營商提供的服務質量。本階段的主要目標是通過擴展兼容 GPU 的範圍(低顯存 GPU 和服務器 GPU)、減少容器加載時間以及處理邊緣情況來提高網路供給。本階段的工作還將包括通過我們的全新 AI 視頻初創企業計劃與精選設計合作夥伴合作,改進應用程序開發人員的集成體驗。這些合作夥伴將提供寶貴的用戶反饋,幫助我們了解開發人員在 Livepeer 主網上使用 AI 處理的需求和要求。

第 3 階段:Livepeer 主網和 AI 網路擴展(2024 年第 3 季度)

在優化階段之後,Livepeer 預計在 2024 年第三季度啓動主網,提供高質量的 AI 開發人員體驗,並包含各種工具和軟件開發工具包。網路擴展將允許高效執行自定義模型和工作流程,安全運行自定義容器代碼,支持靈活的推理請求(冷啓動或熱啓動)以降低開發人員成本,並建立一種驗證協調器真實性並確保內容來源的方法。

誰可以參與 Livepeer AI 子網?

硬件提供商:貢獻GPU並賺取費用

AI 子網爲整個 Livepeer 生態系統的基礎設施提供商釋放了新的收入來源:

  • 現有的 Livepeer Orchestrator 現在可以設置並運行 AI Orchestrator 節點來執行文本到圖像、圖像到圖像和圖像到視頻的推理工作,這爲他們現有的轉碼收入增加了一層豐厚的費用。
  • 成爲 Livepeer Orchestrator - 在 Livepeer 網路上設置您自己的 Orchestrator 節點,並開始處理視頻轉碼和 AI 任務。
  • 加入 Orchestrator 池,通過向 Livepeer 網路提供消費者 GPU 開始賺取獎勵,而無需運行您自己的 AI Orchestrator 節點。
  • 成爲 Livepeer 網絡合作夥伴 - 如果您擁有服務器 GPU 或運行現有計算網路,則可以通過專門的合作夥伴大規模貢獻計算。

Livepeer 網路對所有基礎設施提供商開放,無需許可。Livepeer 文檔可幫助硬件提供商輕鬆開始使用 Livepeer AI 子網。您還可以在這裏找到 Orchestrator 常見問題。填寫此表,表達您對獲得向 Livepeer AI 子網提供計算支持的興趣。

開發人員:以 AI 工作者的身分將模型引入網路

隨着 AI 子網的發展,開發人員將能夠定義和部署自定義管道和工作流程,確保他們的應用程序始終處於人工智能和視頻技術的前沿。

開發人員還可以設置 AI 網關來測試和完善其應用程序,並訪問用於 AI 任務的 API。

子網是無需許可的,因此開發人員可以立即使用子網上的現有人工智能管道進行實驗,盡管子網的當前階段並不適合生產就緒的應用。可以在這裏查看Alpha文檔。

對於致力於去中心化人工智能,並希望直接在子網上大規模構建的創始人來說,Livepeer 正在推出 AI 視頻創業計劃。這是一個僅限受邀者參與的項目,由 5-8 家初創公司組成,在生成媒體領域進行創新。每家初創公司將獲得 40,000 美元的補助資金,包括基礎設施的使用額度和專門的 Livepeer 工程支持。要檢查您是否符合資格,您可以在 這裏申請加入該計劃。

保持最新狀態

今日 Livepeer AI 子網的推出,標志着該項目的一個令人興奮的裏程碑,但這只是 Livepeer 提供全球開放視頻基礎設施使命的下一步。由於生成式人工智能將導致未來幾年創建的視頻內容數量級增加,Livepeer 網路旨在確保其有能力成爲推動這一增長浪潮的基礎設施。

隆重推出:Livepeer.AI

作爲 AI 子網發布的一部分,我們還發布了 Livepeer.ai - Livepeer 網路上人工智能的大本營。

加入社區

加入 Livepeer Discord,與 Livepeer 社區互動,獲得支持並提供反饋,幫助我們完善和增強人工智能子網。#ai-video 頻道是了解和分享 Livepeer + AI 想法的絕佳入口。關注我們的公告,了解最新更新、活動、裏程碑和參與機會。

聲明:

  1. 本文轉載自[mirror],著作權歸屬原作者[Livepeer],如對轉載有異議,請聯系Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得復制、傳播或抄襲經翻譯文章。

介紹 Livepeer AI 子網

新手5/28/2024, 2:43:47 AM
Livepeer AI子網是Livepeer推出的一個創新項目,旨在打造首個具備AI計算能力的去中心化視頻處理網路。作爲一個去中心化的視頻直播網路協議,Livepeer自2017年推出以來,一直致力於提供基於區塊鏈的、高性價比的解決方案,以取代傳統的中心化直播。Livepeer AI 子網提供低成本、高性能的處理服務,通過利用 Livepeer 的數千個 GPU 開放網路,解決了中心化 AI 計算的結構性問題。本文詳細介紹了 Livepeer AI 子網的概念、工作原理、建立原因以及如何參與其中。

生成式人工智能的興起標志着視頻創作領域的巨大變革。

自從Open AI的Sora演示了通過輸入文本提示到AI來降低視頻創作障礙的可能性以來,生成式視頻領域的發展速度一直在迅速加快。頂級的開源AI視頻模型Stable Diffusion在短短兩個月內就吸引了超過1000萬用戶。但是,AI視頻工具的有希望的增長面臨着嚴重的挑戰。全球互聯網壟斷公司,包括NVIDIA,Microsoft Azure和Amazon Web Services (AWS),控制着價值490億美元的GPU市場,這推高了價格,造成了全球AI計算瓶頸。

這就是我們推出 Livepeer AI 子網的原因:世界上第一個具有 AI 計算能力的去中心化視頻處理網路。 Livepeer AI 子網利用 Livepeer 的數千個 GPU 的開放網路提供低成本、高性能的處理,解決了集中式 AI 計算的結構性問題。該子網建立在 Livepeer 開創性的去中心化視頻處理網路的架構之上,提供全球可訪問且經濟實惠的開放視頻基礎設施,並通過基於區塊鏈的代幣經濟激勵無限的可擴展性。

那麼什麼是AI子網?讓我們開始吧。

什麼是 Livepeer AI 子網?

AI 子網是 Livepeer 視頻基礎設施網路的一個分叉分支,爲新的去中心化人工智能媒體處理市場和工具的安全開發和測試提供了一個沙盒。

這意味着,雖然更廣泛的 Livepeer 網路將繼續以視頻轉碼和計算爲核心,服務於價值 1000 多億美元的流媒體市場,但 Livepeer AI 子網將滿足對 AI 計算能力日益增長的需求。該子網旨在處理任何生成式人工智能視頻或工作流程改進任務,如縮放、字幕和識別,隨着開發的進展,任何人都可以運行自己的模型,以滿足特定的視頻和媒體任務。

該子網使視頻開發人員能夠向其應用程序添加一套快速增長的生成式 AI 功能,例如文本到圖像、圖像到圖像和圖像到視頻轉換。

生成媒體提示也稱爲人工智能推理任務,是指使用經過訓練的人工智能模型運行、評估或分析新數據以完成任務的過程。這類推理任務的一個例子是,向 Midjourney 這樣的模型輸入描述性文本命令,並根據該命令接收圖像的過程。

Tsunameme.ai 上生成的 AI 生成輸出 - 第一個構建在 Livepeer AI 子網上的演示應用程序。這項工作使用了文本到圖像和圖像到視頻管道。嘗試使用 Livepeer 測試版生成您自己的 AI 媒體,網址爲 https://tsunameme.ai。

Livepeer 的 AI 網路架構旨在將不同的 AI 推理任務組織成離散的任務類型。這些不同任務類型中的每一種都被稱爲管道(pipeline),用於發送、接收和返回作業請求。Livepeer AI 子網還允許 Livepeer Orchestrator 節點運營商通過爲 AI 處理任務部署 GPU 資源來賺取 ETH 和 LPT 收入。

如何在 AI 子網上處理任務的技術工作流程。網關節點將任務傳遞給協調器,協調器可能運行相同或不同管道的多個 AI-Runner Docker 容器。這些管道可能已經擁有所請求的模型,或者可以根據需要動態加載它們。

雖然管道代表特定的作業類型,例如文本到圖像或圖像到視頻,但每個管道中可以運行許多不同的模型以產生不同的結果。 Livepeer 作爲一個網路,支持特定的管道,而開發人員可以選擇他們想要在給定管道中運行的模型。

目前,重點是使用 Huggingface 的 Diffusers 庫開發的擴散(Diffusion)模型,但未來的更新將擴展對其他模型類型的支持。擴散模型是一種強大的人工智能生成模型,常用於生成高質量的圖像和音頻。在此階段的 AI 子網中,鼓勵協調器保持至少一個管道所使用的模型處於激活狀態(“熱啓動”)並在其 GPU 上運行。

點擊這裏 了解有關子網特色工具和模型的更多信息。

AI 子網如何運作?

Livepeer 採用去中心化的按任務付費模式。這種去中心化的市場定價方式使開發人員能夠按需提交任務並支付費用,而不是像中心化模式那樣需要向雲提供商預留昂貴的計算能力。開發人員還可以根據他們所需的網路性能和可用供應量,設定自己願意支付的價格。

該圖說明了 Livepeer 如何根據效率將任務分配給分布式 GPU 網路,而不是通過集中式服務器引導 AI 處理請求。

Livepeer 人工智能網路架構中兩個最重要的組件是:

  • AI Orchestrator 節點:這些節點負責執行人工智能任務。它們將人工智能模型 “預熱”在 GPU 上,以便立即處理,並能在任務到來時動態加載模型,從而優化響應時間和資源利用率。
  • AI 網關節點: 這些節點管理任務流,根據能力和當前負載將任務分配給相應的協調器,確保高效的任務分配和系統可擴展性。

應用程序開發人員可以通過運行自己的 AI 網關節點並根據其 API 構建應用程序,或者通過訪問遠程托管的網關節點服務(如果他們不想托管自己的節點),將 AI 功能添加到他們的應用程序中。

無限的可擴展性

Livepeer AI 網路基礎設施旨在無需許可即可擴展,隨着需求的增加,可以輕鬆集成其他 Orchestrator 和網關節點。它依靠專門的 ai-runner Docker 鏡像來執行 AI 模型,從而簡化了部署並增強了新管道的可擴展性。持續的開發旨在提高性能並擴大容器的功能,以支持日益復雜的人工智能模型和自定義用戶定義的管道。

爲什麼要構建 Livepeer AI 子網?

人工智能視頻工具降低了準入門檻,現在任何人都可以通過幾個字的文本命令,創建過去需要布景、專門工作人員和數小時剪輯的場景。人工智能還能快速改進縮放、幀插值、字幕生成以及許多其他關鍵的視頻制作任務。對這種技術的需求日益增長,但只有少數全球計算壟斷企業能提供可擴展的基礎設施。此外,這些工具的激增只會加劇集中式人工智能計算的全球瓶頸。

除了高度集中的服務器網路固有的單點故障風險外,輕鬆生成的 AI 內容正在醞釀一場信任和真實性危機。這些因素加在一起,對 AI 視頻行業的可持續發展構成了重大風險。Livepeer 的 AI 子網通過專注於上述問題的三個核心解決方案,爲創建可持續、可盈利的開放式 AI 視頻基礎設施開闢了一條先驅之路:

全球可訪問的超低成本基礎設施

Livepeer 打破了 GCP 和 AWS 等提供商的集中式束縛,這些提供商要求您租用、運行和管理他們的 GPU 服務器。AI 子網使 Livepeer 能夠邁出人工智能的第一步,使其轉碼網路上已有的數千個 GPU 發揮作用。

這種提供人工智能計算存取的新穎方式,在節約成本方面的潛力不容小覷。與管理和承擔專用服務器的成本相比,人工智能視頻生成可以簡單地抽象爲單個任務或工作流程。然後,可以根據需求將其提交到人工智能子網上,該子網由 Livepeer 備受贊譽的低成本、高可靠性網路提供支持,該網路每週已經轉碼數百萬分鍾的傳統視頻,並且擁有大量富餘的 GPU 資源可供使用。

由於人工智能初創公司受益於大量風險投資和投資,因此創始人和資助者很容易忽略生成視頻所涉及的巨大成本。但是,一旦初始資金耗盡或市場轉壞,高可靠性和低成本的計算服務對AI視頻的可持續發展就至關重要。憑藉其在去中心化視頻計算領域令人印象深刻的傳統,Livepeer 在提供這種服務方面具有得天獨厚的優勢。

開放且無需許可的人工智能媒體市場

人工智能內容將永遠改變視頻制作方式,這一點毋庸置疑。然而,它將如何、爲何以及以何種方式改變,卻有可能發生在封閉的環境中。

強大的私營公司控制着最傑出的 AI 模型,其中許多都是閉源的。根據物聯網分析研究,NVIDIA 提供了人工智能數據中心驚人的 92% 的 GPU 計算能力,而微軟和 OpenAI 則瓜分了 69% 的基礎模型和平台市場。這種人工智能計算能力的集中式結構會造成單點故障的風險。如果一家公司倒閉或被政府關閉,那麼所有用戶都將受到牽連。

Livepeer 的子網體現了其對開源開發的承諾,這種開發方式具有抗審查性,並利用區塊鏈和通證經濟激勵用戶共享硬件,從而創建一個可無限擴展的 GPU 網路。無論用戶來自哪個國家或受制於哪家公司,這種基礎技術的獲取都應是開放的並可根據需求隨時使用。

內容驗證和真實性

人工智能時代的到來帶來了真實性危機。辨別真假是消費者的負擔,也是平台和創作者的責任。這就是爲什麼需要快速實施全行業解決方案的原因。

Livepeer 已成爲第一個加入 C2PA 的去中心化人工智能基礎設施項目,C2PA 是一個開放的技術標準,爲出版商、創作者和消費者提供了追蹤不同類型媒體來源的能力。 C2PA 的成員包括 TikTok、Adobe、谷歌、索尼、英特爾、BBC、微軟和 OpenAI。 Livepeer 很榮幸能加入 C2PA 技術工作組,並致力於將開放和去中心化的原則引入內容來源和真實性的全球標準制定中。

Livepeer的人工智能子網目前正在制定措施,通過顯示清晰出處線索的本地加密籤名來解決虛假內容問題。

Livepeer 人工智能路線圖

Livepeer AI 子網的推出標志着 Livepeer 在其開放且無需許可的網路上無限擴展去中心化視頻計算市場的願景的一個重要裏程碑。 Livepeer 網路上的 AI 視頻計算路線圖總結爲 3 個不同的開發階段。

第一階段:AI 子網設計和穩定性(已完成)

截至 5 月 1 日,子網概念驗證的設計以及現有 Livepeer Orchestrator 節點運營商的初始集成已經完成。Orchestrator 節點的性能基準測試也已完成,旨在保證網路性能滿足演示應用程序和產品的需求。目前已有超過 20 個高性能 AI Orchestrator 節點處於激活狀態。有關穩定性階段的回顧 [可以在這裏找到]

第二階段:AI 子網優化(進行中)

隨着 AI 子網的啓動,我們現在正致力於提高爲 AI Orchestrator 和 AI 網關節點運營商提供的服務質量。本階段的主要目標是通過擴展兼容 GPU 的範圍(低顯存 GPU 和服務器 GPU)、減少容器加載時間以及處理邊緣情況來提高網路供給。本階段的工作還將包括通過我們的全新 AI 視頻初創企業計劃與精選設計合作夥伴合作,改進應用程序開發人員的集成體驗。這些合作夥伴將提供寶貴的用戶反饋,幫助我們了解開發人員在 Livepeer 主網上使用 AI 處理的需求和要求。

第 3 階段:Livepeer 主網和 AI 網路擴展(2024 年第 3 季度)

在優化階段之後,Livepeer 預計在 2024 年第三季度啓動主網,提供高質量的 AI 開發人員體驗,並包含各種工具和軟件開發工具包。網路擴展將允許高效執行自定義模型和工作流程,安全運行自定義容器代碼,支持靈活的推理請求(冷啓動或熱啓動)以降低開發人員成本,並建立一種驗證協調器真實性並確保內容來源的方法。

誰可以參與 Livepeer AI 子網?

硬件提供商:貢獻GPU並賺取費用

AI 子網爲整個 Livepeer 生態系統的基礎設施提供商釋放了新的收入來源:

  • 現有的 Livepeer Orchestrator 現在可以設置並運行 AI Orchestrator 節點來執行文本到圖像、圖像到圖像和圖像到視頻的推理工作,這爲他們現有的轉碼收入增加了一層豐厚的費用。
  • 成爲 Livepeer Orchestrator - 在 Livepeer 網路上設置您自己的 Orchestrator 節點,並開始處理視頻轉碼和 AI 任務。
  • 加入 Orchestrator 池,通過向 Livepeer 網路提供消費者 GPU 開始賺取獎勵,而無需運行您自己的 AI Orchestrator 節點。
  • 成爲 Livepeer 網絡合作夥伴 - 如果您擁有服務器 GPU 或運行現有計算網路,則可以通過專門的合作夥伴大規模貢獻計算。

Livepeer 網路對所有基礎設施提供商開放,無需許可。Livepeer 文檔可幫助硬件提供商輕鬆開始使用 Livepeer AI 子網。您還可以在這裏找到 Orchestrator 常見問題。填寫此表,表達您對獲得向 Livepeer AI 子網提供計算支持的興趣。

開發人員:以 AI 工作者的身分將模型引入網路

隨着 AI 子網的發展,開發人員將能夠定義和部署自定義管道和工作流程,確保他們的應用程序始終處於人工智能和視頻技術的前沿。

開發人員還可以設置 AI 網關來測試和完善其應用程序,並訪問用於 AI 任務的 API。

子網是無需許可的,因此開發人員可以立即使用子網上的現有人工智能管道進行實驗,盡管子網的當前階段並不適合生產就緒的應用。可以在這裏查看Alpha文檔。

對於致力於去中心化人工智能,並希望直接在子網上大規模構建的創始人來說,Livepeer 正在推出 AI 視頻創業計劃。這是一個僅限受邀者參與的項目,由 5-8 家初創公司組成,在生成媒體領域進行創新。每家初創公司將獲得 40,000 美元的補助資金,包括基礎設施的使用額度和專門的 Livepeer 工程支持。要檢查您是否符合資格,您可以在 這裏申請加入該計劃。

保持最新狀態

今日 Livepeer AI 子網的推出,標志着該項目的一個令人興奮的裏程碑,但這只是 Livepeer 提供全球開放視頻基礎設施使命的下一步。由於生成式人工智能將導致未來幾年創建的視頻內容數量級增加,Livepeer 網路旨在確保其有能力成爲推動這一增長浪潮的基礎設施。

隆重推出:Livepeer.AI

作爲 AI 子網發布的一部分,我們還發布了 Livepeer.ai - Livepeer 網路上人工智能的大本營。

加入社區

加入 Livepeer Discord,與 Livepeer 社區互動,獲得支持並提供反饋,幫助我們完善和增強人工智能子網。#ai-video 頻道是了解和分享 Livepeer + AI 想法的絕佳入口。關注我們的公告,了解最新更新、活動、裏程碑和參與機會。

聲明:

  1. 本文轉載自[mirror],著作權歸屬原作者[Livepeer],如對轉載有異議,請聯系Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得復制、傳播或抄襲經翻譯文章。
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!
It seems that you are attempting to access our services from a Restricted Location where Gate.io is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Thailand, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.