1. 創(chuàng)業(yè)頭條
  2. 前沿領(lǐng)域
  3. AI智能
  4. 正文

谷歌 Gemma 4 正式開源,開源賽道迎來變局!

 2026-04-03 15:55  來源:互聯(lián)網(wǎng)  我來投稿 撤稿糾錯

  一鍵部署OpenClaw

4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸彈——全新一代 開源大模型Gemma 4正式發(fā)布,以極其寬松的Apache 2.0協(xié)議向全球開發(fā)者免費開放。這是自2025年3月發(fā)布Gemma 3以來,谷歌時隔整整一年的重大迭代。

本次發(fā)布的Gemma 4包含四個不同規(guī)格的版本:E2B(有效20億參數(shù))、E4B(有效40億參數(shù))、26B混合專家模型(MoE)以及31B稠密模型(Dense),全面覆蓋從手機、樹莓派到工作站和服務(wù)器的全場景部署需求。谷歌DeepMind CEO Demis Hassabis在社交平臺上以四顆鉆石emoji暗示此次發(fā)布,并放話:“這是全球同等規(guī)模下最好的開源模型。”

Apache 2.0協(xié)議:一次遲到的誠意釋放
Gemma 4最值得關(guān)注的變化并非參數(shù)或性能,而是它的開源協(xié)議。此前Gemma系列采用谷歌自有的定制化條款,開發(fā)者抱怨了一整年——可以用,但用途受限,再分發(fā)受限,修改了也不能隨便傳播,充其量只能算“開放模型”,遠達不到AI圈真正的“開源”標準。相比之下,Gemma 4直接換成了Apache 2.0協(xié)議,這是業(yè)界最寬松、最成熟的開源協(xié)議之一,與Qwen、Mistral等主流開源模型采用相同的授權(quán)條款。沒有使用限制條款,沒有“禁止危害用途”等需要法律團隊逐條解釋的灰色地帶,對再分發(fā)和商業(yè)部署沒有任何限制。

這一轉(zhuǎn)變意味著,企業(yè)和個人開發(fā)者現(xiàn)在可以無門檻地自由修改、分發(fā)和商業(yè)化使用Gemma 4,無需擔心谷歌中途收回授權(quán)。對于此前因許可證問題轉(zhuǎn)向Mistral或Qwen的團隊而言,這個堵點終于被消除了。

參數(shù)效率的顛覆性突破
如果說許可證轉(zhuǎn)向是態(tài)度上的誠意,那么性能表現(xiàn)則是技術(shù)上的硬實力。Gemma 4 31B Dense版本在Arena AI文本開源排行榜中沖到了全球第三,Elo評分1452,僅次于GLM-5和Kimi 2.5。排在前面的兩位,參數(shù)量分別是它的20倍和30倍。換句話說,谷歌用三十分之一的體量打出了同等水平的成績,“參數(shù)效率”這個詞被重新定義了。

26B MoE版本同樣亮眼:260億總參數(shù),推理時僅激活38億,Elo達到1441,位列開源榜單第六。這意味著在手機上跑一個小模型,得到的響應(yīng)質(zhì)量可以堪比一年前千億級參數(shù)的云端模型。

具體數(shù)據(jù)更為直觀。相比上一代Gemma 3 27B,Gemma 4 31B在數(shù)學推理基準AIME 2026上從20.8%跳升至89.2%;代碼能力基準LiveCodeBench v6從29.1%漲到80.0%,Codeforces編程競賽ELO評分從110拉到2150,相當于人類編程競賽“紫名”選手的水平。衡量智能體工具調(diào)用能力的τ2-bench從6.6%大幅躍升至86.4%。在研究生級科學問答GPQA Diamond測試中,得分從42.4%升至84.3%,幾乎翻倍。

多模態(tài)能力同步補齊。所有版本均支持圖像和視頻輸入,小模型版本額外搭載了音頻編碼器,支持語音識別與翻譯。在MMMU Pro多模態(tài)推理測試中,31B版本達到76.9%,大幅領(lǐng)先前代的49.7%。長上下文短板也被補齊,MRCR v2 128K測試從13.5%躍升至66.4%。此外,Gemma 4原生支持超過140種語言,多語言基準MMMLU達88.4%。

值得注意的是,26B MoE與31B在大部分指標上只差2到5個百分點,但推理速度快得多。對于延遲敏感的應(yīng)用場景,26B MoE的性價比更高。

從口袋到數(shù)據(jù)中心的全場景覆蓋
Gemma 4的硬件適配范圍堪稱全面。31B Dense追求極致原始性能,未量化的bfloat16權(quán)重可放入單張80GB NVIDIA H100顯卡運行,量化版本在消費級顯卡上也能跑。26B MoE側(cè)重低延遲,推理時僅激活38億參數(shù),Token生成速度極快,適合實時語音助手、自動化操作等需要快速響應(yīng)的智能體場景。

端側(cè)的E2B和E4B則與谷歌Pixel團隊、高通、聯(lián)發(fā)科聯(lián)合優(yōu)化,可在手機、樹莓派、NVIDIA Jetson Orin Nano上完全離線運行,延遲接近于零。E2B在部分設(shè)備上的內(nèi)存占用可壓至1.5GB以下,使得真正的端側(cè)AI部署成為現(xiàn)實。

此外,Gemma 4全系列內(nèi)置可開關(guān)的“思考模式”,模型在輸出答案前會先進行內(nèi)部推理,極大提升了多步驟規(guī)劃類任務(wù)的準確性。原生支持函數(shù)調(diào)用和結(jié)構(gòu)化JSON輸出,谷歌還同步發(fā)布了開源Agent開發(fā)工具包(ADK),讓端側(cè)模型也能變身“智能體”。

開源賽道迎來變局
自2024年2月Gemma首次發(fā)布以來,開發(fā)者已下載Gemma系列超過4億次,構(gòu)建了擁有超過10萬個變體的生態(tài)系統(tǒng)。在上一代Gemma 3發(fā)布后的一年里,國內(nèi)開源模型如DeepSeek、Qwen、GLM等迭代了好幾輪,谷歌在開源領(lǐng)域的存在感一度被削弱。此次Gemma 4的發(fā)布,不僅是技術(shù)上的代際飛躍,更是開源賽道的一次權(quán)力重組。

Gemma 4現(xiàn)已可在Hugging Face、Kaggle、Ollama、Google AI Studio等多個平臺免費下載使用。對于全球數(shù)百萬開發(fā)者而言,一個真正開源、性能頂尖且能在本地自由運行的AI模型,正從云端落入每個人的口袋里。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關(guān)標簽
大模型

相關(guān)文章

  • 字節(jié)火山引擎Seedance 2.0正式面向普通API客戶開放申請,豆包大模型日均Token使用量突破120萬億

    4月2日,字節(jié)跳動旗下火山引擎在武漢舉行的AI創(chuàng)新巡展上宣布,Seedance2.0API正式面向企業(yè)用戶開啟公測。同時,火山引擎總裁譚待在會上披露,截至今年3月,豆包大模型日均Token使用量已突破120萬億,在過去三個月內(nèi)增長一倍,比2024年5月發(fā)布時增長1000倍。Seedance2.0:從

  • Claude Code意外泄露51萬行核心源碼,全球開發(fā)者連夜“搶救式”備份

    3月31日,科技圈上演了一場現(xiàn)實版的“代碼大逃殺”。一向以“閉源”為傲的AI巨頭Anthropic,因一個低級打包失誤,將旗下明星產(chǎn)品ClaudeCode的完整源代碼拱手送給了全世界。一次59.8MB的“裸奔”事情始于一個普通的周二早晨。Web3安全公司FuzzLab的實習研究員ChaofanSho

  • 大模型是下一代操作系統(tǒng)的未來,在這屆云棲大會上已經(jīng)到來

    9月24日,2025云棲大會在杭州開幕,阿里巴巴集團CEO、阿里云智能集團董事長兼CEO吳泳銘發(fā)表主旨演講,首次系統(tǒng)性地闡述通往ASI的三階段演進路線,包括智能涌現(xiàn)、自主行動以及自我迭代等,實現(xiàn)從學習人、輔助人到超越人的發(fā)展脈絡(luò)。基于上述的發(fā)展路線,吳泳銘對外做出判斷,大模型是下一代的操作系統(tǒng)?!拔?/p>

    標簽:
    大模型
  • 大模型搶灘高考志愿填報,能否頂替「張雪峰」們?

    文/二風來源/節(jié)點財經(jīng)每年高考成績放榜后,數(shù)千萬考生和家長將迎來另一場硬仗——填報志愿。今年,這一領(lǐng)域迎來了AI的全面介入,多家互聯(lián)網(wǎng)大廠和教育公司紛紛推出智能志愿填報產(chǎn)品,為考生提供院校和專業(yè)選擇建議。據(jù)艾媒咨詢數(shù)據(jù),2023年中國高考志愿填報市場付費規(guī)模約9.5億元,近九成考生愿意借助志愿填報服

    標簽:
    大模型
  • 崔大寶:大模型降溫背后的難點、卡點、節(jié)點

    崔大寶|節(jié)點財經(jīng)創(chuàng)始人進入2024年,大模型似乎有熄火之勢:資本市場,與之關(guān)聯(lián)的概念炒不動了,英偉達股價動輒暴跌重挫,引發(fā)“泡沫戳破”的擔憂;消費市場,BATH們的推新活動少了,產(chǎn)品更新迭代的速度慢了,民眾的關(guān)注度降了……熱鬧的大概只剩下兩場酣仗:自5月15日字節(jié)跳動宣布“以厘計費”,打響國內(nèi)大模型

    標簽:
    大模型
  • 谷歌 Gemma 4 正式開源,開源賽道迎來變局!

    4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸彈——全新一代開源大模型Gemma4正式發(fā)布,以極其寬松的Apache2.0協(xié)議向全球開發(fā)者免費開放。這是自2025年3月發(fā)布Gemma3以來,谷歌時隔整整一年的重大迭代。本次發(fā)布的Gemma4包含四個不同規(guī)格的版本:E2B(有效20億參數(shù))、E4

    標簽:
    大模型
  • OpenClaw常見的五種“病”,到底該怎么“治”?

    AI龍蝦也會生病。別怕,大部分病不是什么絕癥,自己在家就能治。我養(yǎng)OpenClaw一年多,總結(jié)出五種最常見的毛病,附上我的“土方子”,希望對你有用。病一:不吃食(完全不執(zhí)行任何任務(wù))癥狀:你給了指令,它沒反應(yīng),日志里一片空白。就像龍蝦趴在塘底不動彈,碰它也不理。病因:通常是進程卡死了,或者依賴服務(wù)沒

  • 普通人怎么養(yǎng)AI龍蝦,別讓你的AI龍蝦餓著或撐著

    養(yǎng)過真龍蝦的人都知道,投喂是個技術(shù)活。喂少了,龍蝦餓得互相殘殺;喂多了,剩餌壞水,整塘發(fā)病。OpenClaw這個AI龍蝦也一樣——你給它安排的任務(wù)太少,它會“閑得發(fā)慌”,反應(yīng)遲鈍;你一次塞給它太多復雜任務(wù),它會“消化不良”,要么報錯要么干一半就卡住。每天該喂幾次?我的經(jīng)驗是:每天喂兩次,早上一次簡單

  • 選對版本和“飼料”,OpenClaw小龍蝦才能長得壯

    養(yǎng)過真龍蝦的人都知道,苗種的好壞直接決定收成。養(yǎng)AI龍蝦也一樣——OpenClaw有不同版本,有的穩(wěn)定但功能少,有的功能多但愛“鬧脾氣”。新手該怎么選?我用自己的踩坑經(jīng)歷告訴你。版本怎么選?OpenClaw目前主要有三個分支:穩(wěn)定版(Stable)、測試版(Beta)和社區(qū)魔改版(Community

  • 入坑OpenClaw前,先問問自己這三件事

    我第一次聽說OpenClaw,是在一個技術(shù)群里。有人發(fā)了一串代碼,說“這個AI龍蝦特別好養(yǎng),會自己找食吃”。我好奇點進去,結(jié)果對著終端發(fā)了一小時呆——連環(huán)境都沒搭起來。后來我才明白,養(yǎng)AI龍蝦跟養(yǎng)真龍蝦一樣,新手入門得先做足功課。第一問:我的電腦跑得動嗎?很多人以為AI龍蝦就是個聊天機器人,打開網(wǎng)頁

  • 字節(jié)火山引擎Seedance 2.0正式面向普通API客戶開放申請,豆包大模型日均Token使用量突破120萬億

    4月2日,字節(jié)跳動旗下火山引擎在武漢舉行的AI創(chuàng)新巡展上宣布,Seedance2.0API正式面向企業(yè)用戶開啟公測。同時,火山引擎總裁譚待在會上披露,截至今年3月,豆包大模型日均Token使用量已突破120萬億,在過去三個月內(nèi)增長一倍,比2024年5月發(fā)布時增長1000倍。Seedance2.0:從

熱門排行

編輯推薦