新聞中心
聯(lián)系我們
了解更多詳細信息,請致電
020-38815864
- 地址:廣州市天河區(qū)燕嶺路120號823
- 電話:020-38815864
- 郵箱:cs@cs003.vip
AI算了服務器新風向
發(fā)布時間:2024-11-29
- 大模型推動:以 ChatGPT 為代表的多模態(tài) AI 大模型的出現(xiàn),其龐大的參數(shù)規(guī)模和海量的訓練數(shù)據(jù),使得對算力的需求呈爆發(fā)式增長。例如 GPT-3.5、GPT-4 等模型,參數(shù)規(guī)模突破萬億級別,訓練數(shù)據(jù)量達到 TB 級別,促使大模型訓練成為計算密集型任務,極大地推動了 AI 算力服務器市場的需求 。
- 行業(yè)應用拓展:AI 技術在眾多領域的廣泛應用,如深度學習、高性能計算、醫(yī)療、搜索引擎、游戲、電子商務、金融、安全等,也使得各行業(yè)對 AI 算力服務器的需求不斷增加。據(jù)預測,全球人工智能服務器將保持高速增長,預計在 2026 年中國人工智能服務器市場將達到 123.4 億美元,全球市場規(guī)模將達到 347.1 億美元.
- 芯片架構創(chuàng)新:為滿足 AI 應用對高性能、低功耗的需求,半導體公司不斷開發(fā)新的芯片架構。如中昊芯英的剎那 ? 芯片采用專為 AI/ML 而生的創(chuàng)新 TPU 架構,面向 AI 計算場景時算力性能超越國際知名 GPU 芯片產(chǎn)品近 1.5 倍,能耗降低 30%.
- 高速互聯(lián)技術升級:大規(guī)模算力集群構建需要芯片間、服務器間、集群間的高速互聯(lián)。例如浪潮 NF5698H7 服務器支持 8 顆創(chuàng)新全互聯(lián) OAM 加速計算模組,支持高帶寬內(nèi)存,高速網(wǎng)絡平面,實現(xiàn)數(shù)據(jù)網(wǎng)、存儲網(wǎng)、管理網(wǎng)分離,滿足千億級參數(shù)超大模型并行訓練需求3.
- 液冷散熱技術發(fā)展:AI 算力服務器的高功耗帶來了散熱難題,液冷技術成為重要的解決方案。如英偉達 Blackwell 芯片服務器通過液冷技術解決了過熱問題,促使液冷產(chǎn)業(yè)從技術儲備階段向全面推廣階段發(fā)展,相關產(chǎn)業(yè)鏈公司也迎來了新的機遇.
- 傳統(tǒng)服務器廠商布局:聯(lián)想、浪潮等傳統(tǒng)服務器廠商紛紛加大在 AI 算力服務器領域的投入,推出了一系列高性能的 AI 服務器產(chǎn)品,如聯(lián)想的全新液冷 AI 服務器,采用第六代 Neptune 液冷技術,為企業(yè)提供更高效的算力支持和能耗控制。
- 科技巨頭與初創(chuàng)企業(yè)競爭:英偉達、英特爾等科技巨頭憑借其在芯片領域的技術優(yōu)勢,不斷推出新的 AI 算力芯片和服務器產(chǎn)品;同時,一些初創(chuàng)企業(yè)也憑借創(chuàng)新的技術和解決方案,在 AI 算力服務器市場中嶄露頭角,市場競爭日益激烈.
- 國產(chǎn)化進程加快:隨著國內(nèi)芯片技術的不斷進步,國產(chǎn) AI 算力芯片和服務器在性能和成本上逐漸具備了與國際產(chǎn)品競爭的實力,預計 2024 年底,國產(chǎn)芯片產(chǎn)品在購置成本上有望低于 a100,實現(xiàn)初步商業(yè)可用性,這將推動算力產(chǎn)業(yè)鏈的本土化發(fā)展.
- 垂直整合趨勢明顯:AI 服務器正從模塊化向高密度集成化發(fā)展,這要求服務器廠商具備更高的垂直整合能力,需要在芯片廠商的整機平臺研發(fā)中早期介入,以實現(xiàn)更好的性能優(yōu)化和成本控制,促進整個算力產(chǎn)業(yè)鏈的協(xié)同發(fā)展.
- 綠色節(jié)能需求凸顯:AI 算力服務器的高能耗對數(shù)據(jù)中心的能源供應和環(huán)境帶來了挑戰(zhàn),因此,綠色節(jié)能成為未來發(fā)展的重要趨勢。如浪潮 NF5698H7 服務器采用風道解耦設計,通過智能分層調(diào)節(jié)散熱,相比同級別產(chǎn)品,功耗降低約 20%,賦能企業(yè)綠色低碳發(fā)展.
返回上一頁
- 返回頂部
- 020-38815864
- 微信咨詢