隨著大模型技術(shù)規(guī)?;涞?,AI應(yīng)用的實(shí)時(shí)性正成為企業(yè)競(jìng)爭(zhēng)力的核心。然而,在算力持續(xù)升級(jí)的同時(shí),模型從存儲(chǔ)層加載至計(jì)算單元的環(huán)節(jié)卻日漸成為制約系統(tǒng)效率與彈性的關(guān)鍵瓶頸。緩慢或波動(dòng)的加載過程,不僅會(huì)導(dǎo)致昂貴算力資源的閑置,更直接影響業(yè)務(wù)響應(yīng)質(zhì)量。由此可見,構(gòu)建高效、穩(wěn)定的數(shù)據(jù)供給通道,已成為AI基礎(chǔ)設(shè)施演進(jìn)的關(guān)鍵方向。
為驗(yàn)證企業(yè)級(jí)SSD在真實(shí)AI場(chǎng)景中的表現(xiàn),憶聯(lián)選擇Ollama這一廣泛應(yīng)用的開源大模型部署平臺(tái)進(jìn)行深度測(cè)試。Ollama不僅能夠模擬典型的企業(yè)級(jí)AI工作負(fù)載,如多模型快速加載、高頻迭代等,其標(biāo)準(zhǔn)化的調(diào)用接口還可精準(zhǔn)反映底層存儲(chǔ)性能對(duì)模型準(zhǔn)備時(shí)間的實(shí)際影響,為存儲(chǔ)能力評(píng)估提供了一個(gè)客觀且可復(fù)現(xiàn)的測(cè)試環(huán)境。在本次測(cè)試中,憶聯(lián)UH812a憑借領(lǐng)先性能大幅降低數(shù)據(jù)加載耗時(shí),這不僅驗(yàn)證了其作為AI數(shù)據(jù)底座的強(qiáng)大承載力,更彰顯了憶聯(lián)在高端企業(yè)級(jí)存儲(chǔ)領(lǐng)域的技術(shù)實(shí)力。
測(cè)試軟硬件環(huán)境

測(cè)試組網(wǎng)規(guī)劃

圖1:測(cè)試組網(wǎng)規(guī)劃圖
測(cè)試步驟
步驟1:將待測(cè)SSD格式化為ext4文件系統(tǒng),并掛載至指定目錄。
步驟2:將準(zhǔn)備好的離線大模型數(shù)據(jù)復(fù)制到SSD掛載的目錄。
步驟3:清空內(nèi)存,啟動(dòng)Ollama服務(wù),執(zhí)行模型加載命令,將目標(biāo)從SSD加載至顯存,并記錄加載耗時(shí)。該步驟重復(fù)執(zhí)行3次,取算術(shù)平均值作為最終測(cè)試結(jié)果。
測(cè)試結(jié)果
DeepSeek-R1系列模型加載性能測(cè)試DeepSeek-R1作為業(yè)界主流的高性能開源模型,其參數(shù)規(guī)模從1.5B至671B不等,覆蓋了從輕量級(jí)到千億級(jí)的不同應(yīng)用場(chǎng)景。該類模型的加載過程具有典型的隨機(jī)讀取特征,對(duì)存儲(chǔ)設(shè)備抓取分散權(quán)重文件的IOPS性能提出了極高要求。本次測(cè)試覆蓋了7B(小規(guī)模)、70B(中等規(guī)模)及671B(大規(guī)模)三個(gè)版本。
結(jié)果表明,憶聯(lián)UH812a在Ollama平臺(tái)上的模型加載表現(xiàn)全面優(yōu)于競(jìng)品:
Ollama加載DeepSeek-R1:671B模型:基于UH812a的平均耗時(shí)較競(jìng)品A降低48%;
Ollama加載DeepSeek-R1:70B模型:基于UH812a的平均耗時(shí)較競(jìng)品A降低36%;
Ollama加載DeepSeek-R1:7B模型:基于UH812a的平均耗時(shí)較競(jìng)品A降低21%。

圖2:Ollama加載DeepSeek-R1模型平均耗時(shí)(s)對(duì)比
DeepSeek-R1系列模型測(cè)試證明,憶聯(lián)UH812a憑借卓越的隨機(jī)讀取性能,從容應(yīng)對(duì)復(fù)雜推理模型的極端I/O挑戰(zhàn),它將高負(fù)載場(chǎng)景下的存儲(chǔ)壓力,轉(zhuǎn)化為算力資源的充分釋放與即時(shí)可用,為企業(yè)筑牢AI數(shù)據(jù)底座。
Qwen3系列模型加載性能測(cè)試Qwen3作為阿里通義千問開源模型,其參數(shù)規(guī)格覆蓋0.6B至235B。當(dāng)加載32B、235B等較大規(guī)模模型時(shí),海量大文件權(quán)重的高效調(diào)取對(duì)存儲(chǔ)設(shè)備的順序讀取帶寬提出了嚴(yán)苛要求。本次測(cè)試覆蓋了8B及235B兩個(gè)典型版本。
結(jié)果顯示,憶聯(lián) UH812a在Ollama平臺(tái)上的加載表現(xiàn)全面優(yōu)于競(jìng)品A:
Ollama加載Qwen3:235B模型:基于UH812a的平均耗時(shí)較競(jìng)品A降低40%;
Ollama加載Qwen3:8B模型:基于UH812a的平均加載耗時(shí)較競(jìng)品A降低20%。

圖3:Ollama加載Qwen3模型平均耗時(shí)(s)對(duì)比
Qwen3系列模型載入測(cè)試表明,憶聯(lián)UH812a憑借卓越的順序讀寫性能,從容應(yīng)對(duì)大容量、高帶寬工作負(fù)載,為企業(yè)級(jí)大規(guī)模AI應(yīng)用提供穩(wěn)定、敏捷的存儲(chǔ)層支撐。
Llama3.1-405B超大規(guī)模模型加載性能測(cè)試Llama3.1是Meta推出的旗艦級(jí)開源大模型,其405B超大規(guī)模版本對(duì)存儲(chǔ)系統(tǒng)的容量支撐與高速讀取能力提出了極致要求。本次在Ollama平臺(tái)上聚焦該模型進(jìn)行實(shí)測(cè)。
結(jié)果顯示,使用UH812a的Ollama加載Llama3.1:405B模型的平均耗時(shí)較競(jìng)品低47%,展現(xiàn)出處理超大規(guī)模文件高效調(diào)取的卓越能力。這一領(lǐng)先優(yōu)勢(shì)源于UH812a的技術(shù)底座:PCIe 5.0接口帶來的超高帶寬,結(jié)合自主研發(fā)主控的高效調(diào)度算法,充分釋放了Ollama框架在模型加載階段的I/O潛力。

圖4:Ollama加載Llama3.1模型平均耗時(shí)(s)對(duì)比
基于Ollama的深度測(cè)試表明,憶聯(lián)UH812a能夠充分滿足從輕量級(jí)驗(yàn)證到大規(guī)模生產(chǎn)部署的全場(chǎng)景AI負(fù)載。作為突破模型加載I/O瓶頸、加速智能算力釋放的關(guān)鍵一環(huán),UH812a彰顯了其在企業(yè)AI基礎(chǔ)設(shè)施中的核心價(jià)值與領(lǐng)先地位。
面對(duì)AI模型參數(shù)規(guī)模的指數(shù)級(jí)增長(zhǎng)與應(yīng)用場(chǎng)景向?qū)崟r(shí)化、邊緣化的持續(xù)演進(jìn),憶聯(lián)將以更優(yōu)存力、更高標(biāo)準(zhǔn),攜手產(chǎn)業(yè)伙伴共同應(yīng)對(duì)超大規(guī)模訓(xùn)練、實(shí)時(shí)推理與聯(lián)邦學(xué)習(xí)等前沿挑戰(zhàn),為人工智能的下一階段突破筑牢數(shù)據(jù)基石,讓存力成為驅(qū)動(dòng)智能未來的算力動(dòng)脈。
申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!





