Check Point收購Lakera,GenAI 防護體系全面升級
最近一兩年,生成式 AI 正迅速成為企業(yè)業(yè)務(wù)發(fā)展的新引擎。從內(nèi)容生成、客戶支持到自動分析與輔助決策,越來越多的企業(yè)將大型語言模型(LLM)與 GenAI 應(yīng)用嵌入核心流程。然而,當(dāng)企業(yè)加速推動智能化時,一個愈發(fā)突出的現(xiàn)實問題正在出現(xiàn):AI 的創(chuàng)新速度遠遠超過了安全體系的準(zhǔn)備程度。
提示注入(Prompt Injection)、越獄攻擊、敏感數(shù)據(jù)泄露、有害內(nèi)容生成、濫用行為操控……這些風(fēng)險都不基于傳統(tǒng)漏洞,而是基于“語言”本身。攻擊者無需編寫腳本,也無需針對服務(wù)端尋找漏洞,只需一段語義誤導(dǎo)性提示語,便可能突破既有安全機制。傳統(tǒng) Web 安全體系根本無法理解這些語言型攻擊的邏輯,更不具備識別能力。這些挑戰(zhàn)正是Check Point收購業(yè)內(nèi)領(lǐng)先的AI安全公司Lakera ,并推出 CloudGuard WAF GenAI 安全擴展方案的初衷。
GenAI 時代安全問題挑戰(zhàn)
傳統(tǒng)安全體系擅長處理代碼層面的漏洞:SQL 注入、XSS、RCE、越權(quán)訪問、API 濫用……而生成式 AI 面臨的風(fēng)險類型卻截然不同:
·攻擊者可以通過語言操控模型行為
·模型可能在毫無意識的情況下生成敏感內(nèi)容
·智能體可能在外部誤導(dǎo)下執(zhí)行超出授權(quán)范圍的動作
·對話語境本身可以成為攻擊載體
這類問題的本質(zhì)不在模型內(nèi)部,而在于交互邏輯、提示語內(nèi)容及其語義關(guān)系。這也意味著:GenAI 的安全問題不是“修漏洞”,而是“理解語言與意圖”。
Lakera 作為領(lǐng)先的AI安全廠商,長期專注于提示注入檢測、越獄識別、語義濫用行為分析,并構(gòu)建了大量真實攻擊樣本與提示語語料庫。因此其技術(shù)天然適配這一新場景,也是后來被 Check Point 收購并納入平臺的關(guān)鍵原因。
CloudGuard WAF + Lakera:雙層機器學(xué)習(xí)架構(gòu),面向 GenAI 的新安全模型

Check Point 最新發(fā)布的 CloudGuard WAF GenAI 安全擴展方案,是整合 Lakera 技術(shù)后的重要落地成果。新架構(gòu)由兩層機器學(xué)習(xí)模型(Dual-Layer ML Security)構(gòu)成,專門用于理解語言風(fēng)險、識別語義攻擊,并對模型交互提供實時防護。
第一層:Lakera 強化的監(jiān)督式機器學(xué)習(xí)(處理 90%+ GenAI 流量)
這一層基于大量攻擊提示語與良性提示語訓(xùn)練,專門識別語言型威脅。主要包括四類能力:
·Prompt Injection 防護:識別越獄、操控性指令、暗示性語境
·數(shù)據(jù)泄露防護:避免模型輸出中泄露敏感或機密信息
·內(nèi)容控制:過濾違反企業(yè)政策、不安全或不合規(guī)的 LLM 輸出
·使用/濫用控制:識別異常行為、濫用模式與資源消耗異常
Lakera 的加入,為這一層提供了更強的語言基礎(chǔ)與攻擊分析能力。
第二層:無監(jiān)督 機器學(xué)習(xí)(隨應(yīng)用實時學(xué)習(xí))
第二層更關(guān)注“模型在用戶業(yè)務(wù)場景下如何被使用”,通過實時學(xué)習(xí)與語義分析來降低誤報并增強適配性。包含:
·用戶行為模式分析
·群體行為基線
·可信輸入白名單
·語義精煉引擎(專利申請中)
這一層的價值在于使安全解決方案能理解業(yè)務(wù)語境,知道哪些提示語是自然合法的,哪些是不應(yīng)出現(xiàn)的異常語義。
CloudGuard WAF 與 Lakera 的深度整合,能夠在超過一百種語言環(huán)境中理解語義結(jié)構(gòu)與潛在風(fēng)險,真正實現(xiàn)跨語言、跨場景的威脅識別。同時,雙層機器學(xué)習(xí)架構(gòu)顯著降低了誤報率,使防護結(jié)果既精準(zhǔn)又穩(wěn)定,不會對業(yè)務(wù)團隊造成額外負擔(dān)。
更重要的是,這套體系幾乎不需要管理員投入額外調(diào)優(yōu)即可部署,企業(yè)在上線 GenAI 應(yīng)用的第一天就能夠獲得可用的防護能力。無論是模型驅(qū)動的應(yīng)用、與 LLM 交互的 API,還是正在興起的AI Agents,都能夠開箱即用地接入這套防護體系。這讓企業(yè)在推動 AI 創(chuàng)新的同時,不必再為基礎(chǔ)安全能力的缺失而放慢節(jié)奏。
AI 安全的未來:從修漏洞到理解語言風(fēng)險
隨著生成式 AI 在企業(yè)中的滲透加深,安全的關(guān)注重心正在從“補丁、漏洞、權(quán)限”轉(zhuǎn)向“語義、意圖、行為”。AI 安全未來的核心不是“圍堵”,而是主動理解提示語的目的、理解模型的語境、理解交互背后的攻擊意圖。
越來越多企業(yè)將 AI 嵌入業(yè)務(wù)流程,意味著安全體系必須隨著對話而演進。威脅情報等一些列動作,積極的為用戶打造一套保障未來的安全體系。Check Point CloudGuard WAF 與 Lakera 的有機結(jié)合旨在為用戶交付一個能學(xué)習(xí)、能適應(yīng)、能理解語義的AI安全系統(tǒng),而不是傳統(tǒng)規(guī)則安全引擎的延伸。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!
