據(jù)浪潮數(shù)據(jù)統(tǒng)計,智算中心60%以上的故障都出自GPU卡或GPU服務(wù)器的故障,這類故障動輒造成設(shè)備離線甚至直接的經(jīng)濟損失。在大模型推理服務(wù) 7×24 小時連續(xù)運行的今天,AI 基礎(chǔ)設(shè)施的穩(wěn)定性對業(yè)務(wù)至關(guān)重要。但現(xiàn)實痛點突出:云數(shù)據(jù)中心里GPU、TPU、XPU等各類異構(gòu)加速卡并存,環(huán)境復(fù)雜、調(diào)用鏈長,傳統(tǒng)監(jiān)控往往“看得見指標(biāo)摸不到本質(zhì),看得到報錯找不到根因”。浪潮云海InCloud AIOS針對性打造可靈活擴展的平臺級GPU監(jiān)控方案,以“異構(gòu)兼容、深度聯(lián)動、細粒度可視、智能預(yù)警”四大核心亮點,破解監(jiān)控難題,為AI業(yè)務(wù)筑牢穩(wěn)定防線。
一、異構(gòu)全兼容:統(tǒng)一模型打破硬件監(jiān)控壁壘
傳統(tǒng)監(jiān)控工具對NVIDIA GPU支持完善,但對國產(chǎn)異構(gòu)加速卡普遍存在覆蓋不全、指標(biāo)零散、適配周期長的問題,難以應(yīng)對多品牌GPU共存的業(yè)務(wù)場景。
InCloud AIOS構(gòu)建了靈活可擴展的平臺級監(jiān)控框架,從根源解決兼容痛點:
* 建立統(tǒng)一抽象模型:傳統(tǒng)的監(jiān)控系統(tǒng)往往通過“拼接”不同接口實現(xiàn)各類硬件的支持,InCloud AIOS將不同架構(gòu)加速設(shè)備的使用率、顯存占用、溫度、功耗等核心指標(biāo)標(biāo)準化,打破硬件品牌差異;
* 自研可擴展監(jiān)控框架:基于插件模式開發(fā)專屬監(jiān)控代理,按OpenTelemetry標(biāo)準封裝指標(biāo),代理北向提供metrics接口,通過推拉結(jié)合的方式提升實時性與并發(fā)能力;
* 快速適配多品牌:不僅完美支持英偉達全系列,還已快速完成多款主流國產(chǎn)GPU適配,無需重復(fù)開發(fā)即可接入新設(shè)備;
* 準實時分析與告警:監(jiān)控中心搜集數(shù)據(jù)后,通過內(nèi)置的元數(shù)據(jù)信息識別芯片架構(gòu),并存入時序數(shù)據(jù)庫;告警模塊則同步根據(jù)預(yù)設(shè)的告警策略實現(xiàn)準實時分析與告警,幫助運維人員及時發(fā)現(xiàn)異常,并通過短信、郵件、企業(yè)微信等多種方式進行推送。

平臺級統(tǒng)一監(jiān)控方案
二、深度指標(biāo)聯(lián)動:精準定位性能瓶頸
傳統(tǒng)監(jiān)控系統(tǒng)大多只聚焦 GPU 占用率、利用率等基礎(chǔ)指標(biāo),但對大模型推理服務(wù)來說,這些表面數(shù)據(jù)很難反映加速設(shè)備的真實運行狀態(tài)。
事實上,大模型多卡推理(如張量并行)高度依賴卡間數(shù)據(jù)同步——無論是權(quán)重分片分發(fā),還是中間計算結(jié)果交換,鏈路吞吐性能直接決定整體推理效率。比如卡間互聯(lián)吞吐觸及上限時,數(shù)據(jù)傳輸時延會急劇增加;依據(jù)阿姆達爾定律,通信開銷的攀升會直接拉低系統(tǒng)整體效率,極端情況下還會造成計算核心空轉(zhuǎn)浪費。此時僅靠調(diào)整應(yīng)用參數(shù)無濟于事,必須通過優(yōu)化卡間互聯(lián)拓撲、調(diào)整并行策略等系統(tǒng)級手段才能破解。
InCloud AIOS通過深度集成NVIDIA DCGM等廠商底層接口,突破傳統(tǒng)監(jiān)控的指標(biāo)局限,覆蓋pwr(GPU功率消耗)、rxpci(PCI接收速率)、txpci(PCI發(fā)送速率)等更縱深的運行指標(biāo)。更關(guān)鍵的是,它創(chuàng)新性地將硬件運行狀態(tài)與推理服務(wù)性能做聯(lián)動分析,既能幫助用戶實現(xiàn)資源的全面監(jiān)控與高效利用,更能精準定位傳統(tǒng)工具無法察覺的隱藏性能瓶頸。
三、細粒度映射:從物理卡到業(yè)務(wù)Pod的全鏈路可視
云原生推理場景中,一張物理GPU常通過MIG(Multi-Instance GPU)、虛擬化技術(shù)切分為多個計算單元,分配給不同Pod使用。傳統(tǒng)監(jiān)控僅支持“卡級別”監(jiān)控,根本無法滿足應(yīng)用級細粒度管控需求。
例如,在多GPU節(jié)點集群中,系統(tǒng)可能同時運行Llama3-70b、Qwen-7b、DeepSeek-671b 等不同規(guī)模大模型,以及embedding、reranker等輔助模型,通過精細調(diào)度將Pod與指定 GPU綁定——這種復(fù)雜部署下,傳統(tǒng)工具無法定位單個Pod的資源占用情況,給多租戶計費、故障排查、性能優(yōu)化帶來巨大挑戰(zhàn)。

服務(wù)(模型)級別顯卡性能監(jiān)控
InCloud AIOS創(chuàng)新性突破細粒度監(jiān)控瓶頸,實現(xiàn)從物理卡到業(yè)務(wù)Pod的全鏈路可視:
1.先通過節(jié)點設(shè)備插件搜集顯卡拓撲信息,結(jié)合平臺CMDB數(shù)據(jù)庫,建立Pod與底層加速卡實例(含切分后的子實例)的關(guān)聯(lián);
2.再通過自研監(jiān)控代理采集主機進程級GPU使用率,借助專屬的GPU POD Mapper 與Process Mapper框架,完成GPU、Pod、進程的精準映射;
3.最終實現(xiàn)推理任務(wù)的細粒度資源監(jiān)控與分析,支持按業(yè)務(wù)線、模型類型、命名空間等多維度聚合統(tǒng)計,徹底解決多租戶場景下的監(jiān)控盲區(qū)。
四、智能預(yù)警:未雨綢繆守護業(yè)務(wù)連續(xù)運行
在復(fù)雜的異構(gòu)推理集群中,硬件異常向來防不勝防——一次ECC內(nèi)存錯誤、一次PCIe鏈路故障,都可能直接引發(fā)服務(wù)抖動甚至完全中斷,給業(yè)務(wù)連續(xù)性帶來巨大風(fēng)險。
InCloud AIOS 構(gòu)建主動預(yù)警體系,實現(xiàn)“故障早發(fā)現(xiàn)、根因快定位”:
* 深度集成DCGM等廠商原生接口組件,實時采集并可視化展示GPU使用率、顯存占用、帶寬、溫度、功耗等關(guān)鍵指標(biāo),還支持根據(jù)業(yè)務(wù)需求靈活定制檢查項,實現(xiàn)精準高效的硬件健康監(jiān)控;

GPU溫度和功耗監(jiān)控
* 支持配置“顯卡不可糾正內(nèi)存錯誤(uncorrectable memory errors)”等核心異常檢測規(guī)則,同時實時追蹤多維度指標(biāo)趨勢與設(shè)備日志,全方位覆蓋硬件運行狀態(tài),助力故障快速研判;

GPU的日志告警
* 內(nèi)置多種成熟的時間序列預(yù)測算法,能夠基于歷史數(shù)據(jù)提前識別顯存飆升、溫度異常等潛在風(fēng)險,讓運維人員在故障發(fā)生前就能介入干預(yù),從根源降低業(yè)務(wù)中斷概率。
結(jié)語:全棧監(jiān)控賦能,讓異構(gòu)AI部署更穩(wěn)更省心
InCloud AIOS的GPU全棧監(jiān)控方案,徹底解決了傳統(tǒng)監(jiān)控“兼容差、粒度粗、不深入、預(yù)警晚”的痛點。無論是多品牌異構(gòu)GPU的統(tǒng)一管理,還是推理服務(wù)的性能優(yōu)化、故障排查,都能實現(xiàn)“看得見指標(biāo)、看得透本質(zhì),找得到根因、防得住風(fēng)險”。
目前,該方案已廣泛適配主流GPU,為政府、金融、醫(yī)療、教育等行業(yè)的大模型推理服務(wù)提供穩(wěn)定支撐,讓私有云部署的AI業(yè)務(wù)真正實現(xiàn)7×24小時無憂運行。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!





