了解更多詳細信息,請致電
發(fā)布時間:2026-03-26
2026年3月,圣荷西市中心舉辦的英偉達GTC大會上,黃仁勛正式發(fā)布Rubin Ultra液冷AI服務器,作為Vera Rubin Ultra架構(gòu)的核心硬件載體,這款產(chǎn)品以顛覆性的液冷設計、極致的算力密度與能效表現(xiàn),打破了AI服務器高算力與高能耗、高散熱壓力之間的矛盾,標志著AI超算基礎設施從“算力堆砌”向“高效協(xié)同”邁入全新階段,也印證了液冷技術(shù)已從AI服務器的“可選配置”升級為“剛需標配”。
此次首發(fā)的Rubin Ultra,并非簡單在傳統(tǒng)AI服務器上疊加液冷模塊,而是基于英偉達Kyber機架架構(gòu)進行全棧重構(gòu),將液冷散熱與硬件架構(gòu)、算力調(diào)度深度融合,形成“硬件-散熱-軟件”三位一體的高效解決方案。其核心突破集中在液冷技術(shù)優(yōu)化、算力密度提升與能效控制三大維度,每一項升級都精準直擊當前大規(guī)模AI訓練與推理場景的核心痛點。
在液冷散熱方案上,Rubin Ultra采用微通道冷板(MCCP)與鍍金散熱蓋的組合設計,這也是英偉達首次在旗艦AI服務器中全面應用該方案,替代了傳統(tǒng)風冷與普通液冷架構(gòu),實現(xiàn)了散熱效率與硬件兼容性的雙重突破。不同于傳統(tǒng)冷板的單一散熱路徑,Rubin Ultra的微通道冷板采用精密分流設計,冷卻工質(zhì)可直接貼合GPU核心及高功耗部件,通過單相液冷循環(huán)實現(xiàn)熱量快速導出,將GPU核心溫度穩(wěn)定控制在45℃以下,避免了高負載場景下因溫度過高導致的算力降頻問題。同時,該液冷系統(tǒng)與冷量分配單元(CDU)深度協(xié)同,CDU能耗比優(yōu)于10%,可實現(xiàn)冷卻工質(zhì)流量、壓力的精準調(diào)控,結(jié)合高溫供水設計,能充分利用自然冷源,進一步降低整體能耗,使搭載該服務器的數(shù)據(jù)中心PUE值穩(wěn)定控制在1.05-1.08之間,遠優(yōu)于行業(yè)1.25的基準要求,也符合《“東數(shù)西算”2026年工作要點》中新建大型數(shù)據(jù)中心PUE低于1.15的政策標準。
算力密度的跨越式提升,是Rubin Ultra的另一大核心亮點。依托Kyber豎向機架架構(gòu),該服務器采用豎向排列方式,單一機架內(nèi)可集成144顆Rubin Ultra GPU,通過NVLink 144銅纜互聯(lián),將互聯(lián)延遲降低至納秒級,實現(xiàn)算力的高效協(xié)同;若通過光學擴展升級至NVL576配置,單機架可整合576顆GPU,F(xiàn)P4精度推斷算力躍升至15 ExaFLOPS,是標準Rubin NVL144配置的四倍,相當于一臺機架即可承載此前數(shù)臺服務器的算力規(guī)模。
硬件配置上,Rubin Ultra搭載定制化4NP工藝GPU,集成約3360億晶體管,配備1TB HBM4e顯存,帶寬可達32TB/s-64TB/s,是上一代Blackwell B300的4-8倍;整機內(nèi)存容量高達365TB,功耗控制在600千瓦量級,實現(xiàn)了“高算力、高密度、低功耗”的平衡——這一配置的核心價值的在于,能夠大幅降低大規(guī)模AI模型(如千億級參數(shù)大模型、自主智能體Agent)的訓練與推理延遲,同時減少數(shù)據(jù)中心的機架占用空間,降低機房建設與運維成本。
軟件與硬件的協(xié)同優(yōu)化,進一步釋放了Rubin Ultra的算力潛力。
該服務器全面適配英偉達同期發(fā)布的Dynamo AI工廠操作系統(tǒng),借助Dynamo的異構(gòu)解耦能力,將AI推理任務進行精細化拆分:預填充(Prefill)和注意力機制解碼等對算力要求極高的環(huán)節(jié),在Rubin Ultra GPU上執(zhí)行;前饋網(wǎng)絡解碼(Token生成)等對延遲敏感的環(huán)節(jié),則在Groq LPU上執(zhí)行,通過這種協(xié)同調(diào)度,使整體推理性能提升35倍,將1吉瓦AI工廠的Token生成速率從2200萬/秒提升至7億/秒,為高價值Agent服務的規(guī)模化落地提供了物理基礎。
從行業(yè)背景來看,Rubin Ultra的首發(fā)恰逢AI算力需求爆發(fā)與液冷技術(shù)普及的關(guān)鍵節(jié)點。隨著英偉達GB300、華為昇騰910B等高功率AI芯片的全面落地,單卡功耗突破1400W,傳統(tǒng)風冷散熱的效率已達物理極限,其散熱效率僅為液冷的1/25,同體積攜熱能力僅為液冷的1/3000,無法滿足高算力場景的散熱需求。數(shù)據(jù)顯示,2026年全球AI服務器液冷滲透率已從2025年的15%飆升至50%以上,新建智算中心更是實現(xiàn)100%液冷標配,全球液冷市場規(guī)模突破165億美元,中國市場占比超60%,液冷已成為高功率AI算力基礎設施的“必選項”。
Rubin Ultra的推出,不僅是英偉達Rubin架構(gòu)的一次重磅升級,更對整個AI基礎設施產(chǎn)業(yè)產(chǎn)生深遠影響。在技術(shù)層面,其微通道液冷與機架架構(gòu)的深度融合,為行業(yè)樹立了“算力與能效協(xié)同優(yōu)化”的標桿,后續(xù)相變冷板、封裝級液冷等更先進的方案,有望在其基礎上進一步迭代;在產(chǎn)業(yè)層面,廣達、緯創(chuàng)等制造商已確認首批Rubin Ultra機架將于2026年8月交付,微軟Azure、AWS、谷歌云等云廠商也已明確將其與Dynamo操作系統(tǒng)結(jié)合,用于下一代AI云服務,這將加速液冷AI服務器的商業(yè)化落地,推動AI算力商業(yè)模式從“買卡建池”向“按Token計費”轉(zhuǎn)型,降低企業(yè)AI部署成本。