文 | 智能相對論
作者 | 陳泊丞
今年以來,MoE模型成了AI行業(yè)的新寵兒。
一方面,越來越多的廠商在自家的閉源模型上采用了MoE架構。在海外,OpenAI的GPT-4、谷歌的Gemini、Mistral AI的Mistral、xAI的Grok-1等主流大模型都采用了MoE架構。
而在國內,昆侖萬維推出的天工3.0、浪潮信息發(fā)布的源2.0-M32、通義千問團隊發(fā)布的Qwen1.5-MoE-A2.7B、MiniMax全量發(fā)布的abab6、幻方量化旗下的DeepSeek發(fā)布的DeepSeek-MoE 16B等等也都屬于MoE模型。
另一方面,在MoE模型被廣泛應用的同時,也有部分廠商爭先開源了自家的MoE模型。前不久,昆侖萬維宣布開源2千億參數(shù)的Skywork-MoE。而在此之前,浪潮信息的源2.0-M32、DeepSeek的DeepSeek-MoE 16B等,也都紛紛開源。
為什么MoE模型如此火爆,備受各大廠商的青睞?在開源的背后,MoE模型又是以什么樣的優(yōu)勢使各大主流廠商成為其擁躉,試圖作為改變AI行業(yè)的利器?
MoE模型火爆的背后: 全新的AI解題思路
客觀來說,MoE模型的具體工作原理更接近中國的一句古語“術業(yè)有專攻”,通過把任務分門別類,然后分給多個特定的“專家”進行解決。
它的工作流程大致如此,首先數(shù)據(jù)會被分割為多個區(qū)塊(token),然后通過門控網(wǎng)絡技術(Gating Network)再把每組數(shù)據(jù)分配到特定的專家模型(Experts)進行處理,也就是讓專業(yè)的人處理專業(yè)的事,最終匯總所有專家的處理結果,根據(jù)關聯(lián)性加權輸出答案。
當然,這只是一個大致的思路,關于門控網(wǎng)絡的位置、模型、專家數(shù)量、以及MoE與Transformer架構的具體結合方案,各家方案都不盡相同,也逐漸成為各家競爭的方向——誰的算法更優(yōu),便能在這個流程上拉開MoE模型之間的差距。
像浪潮信息就提出了基于注意力機制的門控網(wǎng)絡(Attention Router),這種算法結構的亮點在于可以通過局部過濾增強的注意力機制(LFA, Localized Filtering-based Attention),率先學習相鄰詞之間的關聯(lián)性,然后再計算全局關聯(lián)性的方法,能夠更好地學習到自然語言的局部和全局的語言特征,對于自然語言的關聯(lián)語義理解更準確,從而更好地匹配專家模型,保證了專家之間協(xié)同處理數(shù)據(jù)的水平,促使模型精度得以提升。
基于注意力機制的門控網(wǎng)絡(Attention Router)
拋開目前各家廠商在算法結構上的創(chuàng)新與優(yōu)化不談,MoE模型這種工作思路本身所帶來的性能提升就非常顯著——通過細粒度的數(shù)據(jù)分割和專家匹配,從而實現(xiàn)了更高的專家專業(yè)化和知識覆蓋。
這使得MoE模型在處理處理復雜任務時能夠更準確地捕捉和利用相關知識,提高了模型的性能和適用范圍。因此,「智能相對論」嘗試了去體驗天工3.0加持的AI搜索,就發(fā)現(xiàn)對于用戶較為籠統(tǒng)的問題,AI居然可以快速的完成拆解,并給出多個項目參數(shù)的詳細對比,屬實是強大。
天工AI搜索提問“對比一下小米su7和特斯拉model3”所得出的結果
由此我們可以看到,AI在對比兩款車型的過程中,巧妙地將這一問題拆解成了續(xù)航里程、動力性能、外觀設計、內飾設計、智能化與自動駕駛、市場表現(xiàn)與用戶口碑、價格等多個項目,分別處理得出較為完整且專業(yè)的答案。
這便是“術業(yè)有專攻”的優(yōu)勢——MoE模型之所以受到越來越多廠商的關注,首要的關鍵就在于其所帶來的全新解決問題的思路促使模型的性能得到了較為顯著的提高。特別是伴隨著行業(yè)復雜問題的涌現(xiàn),這一優(yōu)勢將使得MoE模型得到更廣泛的應用。
各大廠商爭先開源MoE模型: 解決AI算力荒的另一條路徑
開源的意義在于讓MoE模型更好的普及。那么,對于市場而言,為什么要選擇MoE模型?
拋開性能來說,MoE模型更突出的一點優(yōu)勢則在于算力效率的提升。
DeepSeek-MoE 16B在保持與7B參數(shù)規(guī)模模型相當?shù)男阅艿耐瑫r,只需要大約40%的計算量。而37億參數(shù)的源2.0-M32在取得與700億參數(shù)LLaMA3相當性能水平的同時,所消耗的算力也僅為LLaMA3的1/19。
也就意味著,同樣的智能水平,MoE模型可以用更少的計算量和內存需求來實現(xiàn)。這得益于MoE模型在應用中并非要完全激活所有專家網(wǎng)絡,而只需要激活部分專家網(wǎng)絡就可以解決相關問題,很好避免了過去“殺雞用牛刀”的尷尬局面。
舉個例子,盡管DeepSeek-MoE 16B的總參數(shù)量為16.4B,但每次推理只激活約2.8B的參數(shù)。與此同時,它的部署成本較低,可以在單卡40G GPU上進行部署,這使得它在實際應用中更加輕量化、靈活且經(jīng)濟。
在當前算力資源越來越緊張的“算力荒”局面下,MoE模型的出現(xiàn)和應用可以說為行業(yè)提供了一個較為現(xiàn)實且理想的解決方案。
更值得一提的是,MoE模型還可以輕松擴展到成百上千個專家,使得模型容量極大增加,同時也允許在大型分布式系統(tǒng)上進行并行計算。由于各個專家只負責一部分數(shù)據(jù)處理,因此在保持模型性能的同時,又能顯著降低了單個節(jié)點的內存和計算需求。
如此一來,AI能力的普惠便有了非常可行的路徑。這樣的特性再加上廠商開源,將促使更多中小企業(yè)不需要重復投入大模型研發(fā)以及花費過多算力資源的情況下便能接入AI大模型,獲取相關的AI能力,促進技術普及和行業(yè)創(chuàng)新。
當然,在這個過程中,MoE模型廠商們在為市場提供開源技術的同時,也有機會吸引更多企業(yè)轉化成為付費用戶,進而走通商業(yè)化路徑。畢竟,MoE模型的優(yōu)勢擺在眼前,接下來或許將有更多的企業(yè)斗都會嘗試新的架構來拓展AI能力,越早開源越能吸引更多市場主體接觸并參與其中。
但是,開源最關鍵的優(yōu)勢還是在于MoE模型對當前算力問題的解決?;蛟S,隨著MoE模型被越來越多的企業(yè)所接受并應用,行業(yè)在獲得相應AI能力的同時也不必困頓于算力資源緊張的問題了。
寫在最后
MoE大模型作為當前人工智能領域的技術熱點,其獨特的架構和卓越的性能為人工智能的發(fā)展帶來了新的機遇。不管是應用還是開源,隨著技術的不斷進步和應用場景的不斷拓展,MoE大模型有望在更多領域發(fā)揮巨大的潛力。
MoE模型的本質在于為AI行業(yè)的發(fā)展提供了兩條思路,一是解決應用上的性能問題,讓AI有了更強大的解題思路。二是解決算力上的欠缺問題,讓AI有了更全面的發(fā)展空間。由此來看MoE模型能成為行業(yè)各大廠商的寵兒,也是水到渠成的事情。
*本文圖片均來源于網(wǎng)絡
此內容為【智能相對論】原創(chuàng),
僅代表個人觀點,未經(jīng)授權,任何人不得以任何方式使用,包括轉載、摘編、復制或建立鏡像。
部分圖片來自網(wǎng)絡,且未核實版權歸屬,不作為商業(yè)用途,如有侵犯,請作者與我們聯(lián)系。
•AI產(chǎn)業(yè)新媒體;
•澎湃新聞科技榜單月度top5;
•文章長期“霸占”鈦媒體熱門文章排行榜TOP10;
•著有《人工智能 十萬個為什么》
•【重點關注領域】智能家電(含白電、黑電、智能手機、無人機等AIoT設備)、智能駕駛、AI+醫(yī)療、機器人、物聯(lián)網(wǎng)、AI+金融、AI+教育、AR/VR、云計算、開發(fā)者以及背后的芯片、算法等。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!
文/道哥美國設計軟件公司Figma近期在紐約證券交易所掛牌上市,首日即上演“狂飆”行情——發(fā)行價定每股33美元,開盤報價85美元,較發(fā)行價翻倍。首日收報115.50美元,較發(fā)行價大漲約250%,市值飆升至近670億美元,創(chuàng)下近30年來同等規(guī)模美股IPO的最大單日漲幅紀錄。然而,隨著短線資金獲利了結,
文/一燈來源/節(jié)點財經(jīng)在當前無人敢缺席的AI軍備競賽中,巨頭們一面為巨額的資本支出焦慮,一面又向市場勾勒著未來的宏偉藍圖。在各家動輒千億級投入的背景下,市場迫切需要一份關于AI回報價值的有力證明。而騰訊,率先給出了答卷。8月13日,騰訊控股發(fā)布2025年第二季度財報。盡管資本開支同比劇增119%,達
文/二風來源/節(jié)點財經(jīng)2025年的硅谷,一場沒有硝煙的戰(zhàn)爭正以前所未有的烈度上演。這場戰(zhàn)爭的核心武器不是代碼或芯片,而是人——那些全球僅有數(shù)千名、能夠構建未來人工智能基礎模型的頂尖大腦。在這場激烈的人才爭奪戰(zhàn)中,Meta及其首席執(zhí)行官馬克·扎克伯格(MarkZuckerberg)正扮演著最具侵略性的
文/道哥大舉裁員、清空賬號、國內IP無法訪問——曾被譽為“中國AIAgent希望之星”的Manus,在估值飆至5億美元的高光時刻“閃離”中國市場。近日,Manus“裁員、出走”的消息在媒體端大量發(fā)酵。消息稱,Manus公司總部將由中國遷至新加坡,其國內團隊也將大幅裁撤——原有120人規(guī)模團隊除40余
在數(shù)字化與智能化深度交織的時代浪潮中,安全的邊界不斷延展,技術的演進正引領產(chǎn)業(yè)邁向新一輪變革。10月24日,以“弈動Dynamic·數(shù)智躍遷博弈無界”為主題的2025TechWorld智慧安全大會在北京盛大召開。來自國家部委、院士學者、高??蒲袡C構和企業(yè)的權威專家與業(yè)界精英齊聚北京,共議AI安全、數(shù)
2025年10月25日,2025世界青年科學家峰會之人工智能(AI)融合創(chuàng)新發(fā)展論壇在浙江溫州成功舉辦。本次論壇由國際院士科創(chuàng)中心主辦,中國投資協(xié)會能源投資專業(yè)委員會、溫港院士科創(chuàng)中心承辦,中國電工技術學會、中科先進技術溫州研究院與溫州市電力工程學會提供支持,以“甌江論道-AI賦能綠色發(fā)展”為主題,
我覺得我們AI的目標是:從芯片設計到軟件生態(tài),全鏈路自主開發(fā),建立可控的世界級AI體系。所以這是俺對未來5年中國AI圈的展望和判斷。(1)2026年,英偉達造車、國產(chǎn)開車26年國產(chǎn)芯片會在推理和垂直場景上發(fā)力。以DeepSeek為代表,大多數(shù)AI大模型會以軟件彌補硬件不足,所以訓練和推理分開,訓練就
文/道哥在深陷“后門”風波、接受網(wǎng)信辦問詢之后,英偉達的“特供版”H20芯片,又有了新消息。近日,美國科技媒體《TheInformation》援引知情人士消息稱,英偉達已悄然向其關鍵供應商——包括負責封裝的安靠科技、供應高帶寬內存的三星電子、以及承擔后端處理的富士康發(fā)出指令,要求暫停所有與H20AI
文/二風來源/節(jié)點財經(jīng)一場關于“中國芯”的IPO審議,正把投資者們的目光鎖定在上交所。根據(jù)上交所發(fā)布的公告,上市審核委員會已定于9月26日審議摩爾線程的科創(chuàng)板首發(fā)申請。作為中國半導體自主化浪潮中最受矚目的“考生”之一,包括其創(chuàng)始人顯赫的英偉達背景、高達80億元人民幣的募資雄心,以及在國產(chǎn)GPU領域取
技術的進步永無止境,繼創(chuàng)下TPC-C性能&性價比雙冠之后,阿里云PolarDB云原生數(shù)據(jù)庫再度實現(xiàn)關鍵突破。9月24日杭州云棲大會上,阿里云宣布推出全球首款基于CXL(ComputeExpressLink)2.0Switch技術的PolarDB數(shù)據(jù)庫專用服務器。在原有RDMA網(wǎng)絡的基礎上,Polar
2025年9月24日,在杭州舉辦的云棲大會上,阿里云正式發(fā)布全新一代服務器操作系統(tǒng)AlibabaCloudLinux4(簡稱Alinux4)。Alinux4基于Linux6.6內核打造,是首個全面遵循龍蜥社區(qū)“開源生態(tài)合作倡議”規(guī)范的商業(yè)發(fā)行版。它不僅兼容主流開源社區(qū)生態(tài),更針對阿里云最新9代ECS
9月24日,杭州云棲大會技術主論壇上,阿里云重磅發(fā)布AI安全護欄,提供五項核心安全能力,護航AI安全。一方面為客戶提供融入AIAgent開發(fā)全鏈路的原生安全防護,另一方面持續(xù)用AI賦能安全產(chǎn)品智能化升級,打造Agentic-SOC安全運營,提升安全威脅檢測和響應效率。在過去的一年,AIAgent正在