NVIDIA 和 OpenAI 推出了最快的開放推理模型

robot
摘要生成中

NVIDIA 和 OpenAI 剛剛發布了兩個新的開源推理模型,gpt-oss-120b 和 gpt-oss-20b。120b 模型可以在單個 NVIDIA GB200 NVL72 系統上每秒處理 150 萬個令牌。這得益於 NVIDIA 的 Blackwell 架構和一種新的 4 位精度格式 NVFP4 的結合。這種格式有助於在準確性和效率之間取得平衡。

模型的驅動力

這些模型高效運行的原因在於新硬件和智能軟件的結合。它們是在NVIDIA強大的H100 GPU上訓練的,並且旨在能夠在各種設備上順利運行。您可以在大型雲系統和配備NVIDIA RTX顯卡的普通臺式電腦上使用這些模型。如果您已經在使用CUDA,您可能可以在不需要額外工作的情況下運行這些模型。

這兩種模型也被打包爲 NVIDIA 所稱的“推理微服務”。這使得模型相對更快且更容易。您無需從頭開始構建一切。如果您已經在使用流行的 AI 工具,如 Hugging Face 或 Llama.cpp,這些模型將直接集成進來。

NVIDIA的較新Blackwell硬件在這裏也發揮了重要作用。它包括一個叫做NVFP4的功能,通過使用低精度數字而不失去準確性來幫助模型更快、更高效地運行。聽起來可能很專業,但結果非常簡單。它將導致更快的AI,使用更少的電力和內存。對於企業來說,這可能意味着更低的成本。

NVIDIA與OpenAI之間的長期合作關係也幫助實現了這一點。這段關係可以追溯到Jensen Huang親自交付第一臺DGX-1的時候。現在gpt-oss系列的發展感覺是這一合作的下一個合乎邏輯的步驟。然而,這些產品將需要數量級更多的計算能力、精細打磨和運營準備。其硬件、軟件和服務都在協同工作,這在這個層面上是很少見的。

讓每個人都可以構建

此次發布最重要的事情之一是這些模型是開放的。這意味着來自初創公司和大學的任何人都可以參與其中。他們可以在其基礎上進行構建、定制,並在他們的系統中使用它們。OpenAI 現在擁有超過 400 萬名終身開發者在其平台上進行開發。而 NVIDIA 方面則有超過 650 萬名開發者使用其軟件工具。他們已經合作近十年,影響力巨大。全球有數億個 GPU 運行在 NVIDIA CUDA 平台上。當這樣的技術發布到這樣一個龐大而經驗豐富的生態系統中時,採用往往會迅速推進。這就是爲什麼這開始感覺不像是一次發布,而更像是一個轉折點。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)