據(jù)浪潮數(shù)據(jù)統(tǒng)計,智算中心60%以上的故障都出自GPU卡或GPU服務器的故障,這類故障動輒造成設備離線甚至直接的經(jīng)濟損失。在大模型推理服務 7×24 小時連續(xù)運行的今天,AI 基礎設施的穩(wěn)定性對業(yè)務至關重要。但現(xiàn)實痛點突出:云數(shù)據(jù)中心里GPU、TPU、XPU等各類異構加速卡并存,環(huán)境復雜、調(diào)用鏈長,傳統(tǒng)監(jiān)控往往“看得見指標摸不到本質,看得到報錯找不到根因”。浪潮云海InCloud AIOS針對性打造可靈活擴展的平臺級GPU監(jiān)控方案,以“異構兼容、深度聯(lián)動、細粒度可視、智能預警”四大核心亮點,破解監(jiān)控難題,為AI業(yè)務筑牢穩(wěn)定防線。
一、異構全兼容:統(tǒng)一模型打破硬件監(jiān)控壁壘
傳統(tǒng)監(jiān)控工具對NVIDIA GPU支持完善,但對國產(chǎn)異構加速卡普遍存在覆蓋不全、指標零散、適配周期長的問題,難以應對多品牌GPU共存的業(yè)務場景。
InCloud AIOS構建了靈活可擴展的平臺級監(jiān)控框架,從根源解決兼容痛點:
* 建立統(tǒng)一抽象模型:傳統(tǒng)的監(jiān)控系統(tǒng)往往通過“拼接”不同接口實現(xiàn)各類硬件的支持,InCloud AIOS將不同架構加速設備的使用率、顯存占用、溫度、功耗等核心指標標準化,打破硬件品牌差異;
* 自研可擴展監(jiān)控框架:基于插件模式開發(fā)專屬監(jiān)控代理,按OpenTelemetry標準封裝指標,代理北向提供metrics接口,通過推拉結合的方式提升實時性與并發(fā)能力;
* 快速適配多品牌:不僅完美支持英偉達全系列,還已快速完成多款主流國產(chǎn)GPU適配,無需重復開發(fā)即可接入新設備;
* 準實時分析與告警:監(jiān)控中心搜集數(shù)據(jù)后,通過內(nèi)置的元數(shù)據(jù)信息識別芯片架構,并存入時序數(shù)據(jù)庫;告警模塊則同步根據(jù)預設的告警策略實現(xiàn)準實時分析與告警,幫助運維人員及時發(fā)現(xiàn)異常,并通過短信、郵件、企業(yè)微信等多種方式進行推送。

平臺級統(tǒng)一監(jiān)控方案
二、深度指標聯(lián)動:精準定位性能瓶頸
傳統(tǒng)監(jiān)控系統(tǒng)大多只聚焦 GPU 占用率、利用率等基礎指標,但對大模型推理服務來說,這些表面數(shù)據(jù)很難反映加速設備的真實運行狀態(tài)。
事實上,大模型多卡推理(如張量并行)高度依賴卡間數(shù)據(jù)同步——無論是權重分片分發(fā),還是中間計算結果交換,鏈路吞吐性能直接決定整體推理效率。比如卡間互聯(lián)吞吐觸及上限時,數(shù)據(jù)傳輸時延會急劇增加;依據(jù)阿姆達爾定律,通信開銷的攀升會直接拉低系統(tǒng)整體效率,極端情況下還會造成計算核心空轉浪費。此時僅靠調(diào)整應用參數(shù)無濟于事,必須通過優(yōu)化卡間互聯(lián)拓撲、調(diào)整并行策略等系統(tǒng)級手段才能破解。
InCloud AIOS通過深度集成NVIDIA DCGM等廠商底層接口,突破傳統(tǒng)監(jiān)控的指標局限,覆蓋pwr(GPU功率消耗)、rxpci(PCI接收速率)、txpci(PCI發(fā)送速率)等更縱深的運行指標。更關鍵的是,它創(chuàng)新性地將硬件運行狀態(tài)與推理服務性能做聯(lián)動分析,既能幫助用戶實現(xiàn)資源的全面監(jiān)控與高效利用,更能精準定位傳統(tǒng)工具無法察覺的隱藏性能瓶頸。
三、細粒度映射:從物理卡到業(yè)務Pod的全鏈路可視
云原生推理場景中,一張物理GPU常通過MIG(Multi-Instance GPU)、虛擬化技術切分為多個計算單元,分配給不同Pod使用。傳統(tǒng)監(jiān)控僅支持“卡級別”監(jiān)控,根本無法滿足應用級細粒度管控需求。
例如,在多GPU節(jié)點集群中,系統(tǒng)可能同時運行Llama3-70b、Qwen-7b、DeepSeek-671b 等不同規(guī)模大模型,以及embedding、reranker等輔助模型,通過精細調(diào)度將Pod與指定 GPU綁定——這種復雜部署下,傳統(tǒng)工具無法定位單個Pod的資源占用情況,給多租戶計費、故障排查、性能優(yōu)化帶來巨大挑戰(zhàn)。

服務(模型)級別顯卡性能監(jiān)控
InCloud AIOS創(chuàng)新性突破細粒度監(jiān)控瓶頸,實現(xiàn)從物理卡到業(yè)務Pod的全鏈路可視:
1.先通過節(jié)點設備插件搜集顯卡拓撲信息,結合平臺CMDB數(shù)據(jù)庫,建立Pod與底層加速卡實例(含切分后的子實例)的關聯(lián);
2.再通過自研監(jiān)控代理采集主機進程級GPU使用率,借助專屬的GPU POD Mapper 與Process Mapper框架,完成GPU、Pod、進程的精準映射;
3.最終實現(xiàn)推理任務的細粒度資源監(jiān)控與分析,支持按業(yè)務線、模型類型、命名空間等多維度聚合統(tǒng)計,徹底解決多租戶場景下的監(jiān)控盲區(qū)。
四、智能預警:未雨綢繆守護業(yè)務連續(xù)運行
在復雜的異構推理集群中,硬件異常向來防不勝防——一次ECC內(nèi)存錯誤、一次PCIe鏈路故障,都可能直接引發(fā)服務抖動甚至完全中斷,給業(yè)務連續(xù)性帶來巨大風險。
InCloud AIOS 構建主動預警體系,實現(xiàn)“故障早發(fā)現(xiàn)、根因快定位”:
* 深度集成DCGM等廠商原生接口組件,實時采集并可視化展示GPU使用率、顯存占用、帶寬、溫度、功耗等關鍵指標,還支持根據(jù)業(yè)務需求靈活定制檢查項,實現(xiàn)精準高效的硬件健康監(jiān)控;

GPU溫度和功耗監(jiān)控
* 支持配置“顯卡不可糾正內(nèi)存錯誤(uncorrectable memory errors)”等核心異常檢測規(guī)則,同時實時追蹤多維度指標趨勢與設備日志,全方位覆蓋硬件運行狀態(tài),助力故障快速研判;

GPU的日志告警
* 內(nèi)置多種成熟的時間序列預測算法,能夠基于歷史數(shù)據(jù)提前識別顯存飆升、溫度異常等潛在風險,讓運維人員在故障發(fā)生前就能介入干預,從根源降低業(yè)務中斷概率。
結語:全棧監(jiān)控賦能,讓異構AI部署更穩(wěn)更省心
InCloud AIOS的GPU全棧監(jiān)控方案,徹底解決了傳統(tǒng)監(jiān)控“兼容差、粒度粗、不深入、預警晚”的痛點。無論是多品牌異構GPU的統(tǒng)一管理,還是推理服務的性能優(yōu)化、故障排查,都能實現(xiàn)“看得見指標、看得透本質,找得到根因、防得住風險”。
目前,該方案已廣泛適配主流GPU,為政府、金融、醫(yī)療、教育等行業(yè)的大模型推理服務提供穩(wěn)定支撐,讓私有云部署的AI業(yè)務真正實現(xiàn)7×24小時無憂運行。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!





