一、算力困境與架構(gòu)革新的時代必然
數(shù)字經(jīng)濟的爆發(fā)式增長催生了 “算力饑渴”,但我國算力資源呈現(xiàn)顯著錯配:東部地區(qū)承載全國 80% 的數(shù)字經(jīng)濟規(guī)模,數(shù)據(jù)中心 PUE 普遍高于 1.5,土地與能源成本高企;而西部可再生能源富集,年均氣溫低于 15℃,卻面臨算力利用率不足 40% 的浪費。與此同時,數(shù)據(jù)中心能耗已占全國總用電量的 2.5%,碳排放占比達 1.5%,雙碳目標下的綠色轉(zhuǎn)型迫在眉睫。
AIDC(Advanced IDC)端邊云協(xié)同新架構(gòu)的出現(xiàn),以 “液冷邊緣節(jié)點 + 西部算力中心” 的組合拳破解雙重矛盾:邊緣節(jié)點承接實時性算力需求,西部算力中心承載非實時重負載計算,通過智能調(diào)度實現(xiàn)跨區(qū)域資源優(yōu)化,最終達成東數(shù)西算工程提出的 60% 減碳目標,構(gòu)建 “算力高效、能源清潔、調(diào)度智能” 的新型算力生態(tài)。
二、架構(gòu)雙核心:液冷邊緣節(jié)點與西部算力中心的協(xié)同密碼
(一)液冷邊緣節(jié)點:終端側(cè)的散熱革命
邊緣計算作為端邊云協(xié)同的 “最后一公里”,其微型化、高可靠性需求推動液冷技術從超算中心向邊緣滲透。AIDC 架構(gòu)采用兩類液冷方案適配不同場景:
- 浸沒式液冷:如阿里云 “磐久液冷敏捷版” 將服務器完全浸入絕緣冷卻液,通過相變吸熱實現(xiàn)無風扇散熱,重慶萬盛邊緣數(shù)據(jù)中心的 PUE 低至 1.09,較傳統(tǒng)風冷節(jié)能 36.3%;
- 冷板式液冷:華為 Atlas 500 邊緣服務器采用定制冷板與發(fā)熱元件直接接觸,體積縮小 40%,可適應 - 40℃~55℃極端環(huán)境,支撐工業(yè)設備預測性維護響應時延降至毫秒級。
這些節(jié)點將云端算力下沉至企業(yè)樓宇、制造工廠等場景,實現(xiàn) 8TB / 日的本地化數(shù)據(jù)處理能力,既降低網(wǎng)絡帶寬消耗 38%,又通過實時推理保障業(yè)務連續(xù)性。
(二)西部算力中心:綠電驅(qū)動的算力樞紐
依托東數(shù)西算 “8+10+N” 算力樞紐體系,西部算力中心成為架構(gòu)的 “能量核心”:
- 綠色供能:內(nèi)蒙古、貴州等節(jié)點采用 “風光水儲一體化” 系統(tǒng),可再生能源占比超 80%,烏蘭察布數(shù)據(jù)中心通過光伏直供將 PUE 控制在 1.2 以下;
- 智能調(diào)度:天翼云 “息壤” 平臺構(gòu)建 “中心 - 邊緣 - 終端” 三級架構(gòu),將長三角 AI 訓練任務動態(tài)分配至寧夏樞紐,單次任務節(jié)電 50%,跨區(qū)域傳輸時延控制在 20ms 以內(nèi);
- 異構(gòu)融合:整合 CPU、GPU、NPU 等多元算力單元,支撐基因測序、量子模擬等重負載計算,處理效率較傳統(tǒng)架構(gòu)提升 4 倍。
三、減碳 60%:技術協(xié)同的實證與邏輯
AIDC 架構(gòu)的減碳成效并非單一技術貢獻,而是 “液冷節(jié)能 + 綠電替代 + 智能調(diào)度” 的三重疊加:
- 液冷技術的基礎減碳:相較于傳統(tǒng)風冷 PUE 1.5 的基準,浸沒式液冷將 PUE 降至 1.1 以下,單集群年節(jié)電量超 1 億度,直接減少 40% 的能耗碳排放;
- 西部綠電的深度替代:西部算力中心使用可再生能源占比超 80%,較東部火電數(shù)據(jù)中心再降碳 30%,某萬億參數(shù)大模型通過該模式年減碳 8000 噸;
- 端邊云調(diào)度的優(yōu)化增效:邊緣節(jié)點承擔 60% 以上的實時計算任務,減少跨區(qū)域數(shù)據(jù)傳輸能耗;智能調(diào)度系統(tǒng)嵌入碳足跡模型,優(yōu)先分配綠電算力,北京某智算中心因此年減碳 28 萬噸。
三重效應疊加下,AIDC 架構(gòu)實現(xiàn)綜合減碳 60%,重慶萬盛邊緣數(shù)據(jù)中心、寧夏中衛(wèi)算力樞紐等項目已驗證該成效 —— 前者服務制造企業(yè)時,既將設備響應時延縮短至 50 毫秒,又使企業(yè)算力成本下降 37%。