Check Point收購(gòu)Lakera,GenAI 防護(hù)體系全面升級(jí)
最近一兩年,生成式 AI 正迅速成為企業(yè)業(yè)務(wù)發(fā)展的新引擎。從內(nèi)容生成、客戶支持到自動(dòng)分析與輔助決策,越來(lái)越多的企業(yè)將大型語(yǔ)言模型(LLM)與 GenAI 應(yīng)用嵌入核心流程。然而,當(dāng)企業(yè)加速推動(dòng)智能化時(shí),一個(gè)愈發(fā)突出的現(xiàn)實(shí)問(wèn)題正在出現(xiàn):AI 的創(chuàng)新速度遠(yuǎn)遠(yuǎn)超過(guò)了安全體系的準(zhǔn)備程度。
提示注入(Prompt Injection)、越獄攻擊、敏感數(shù)據(jù)泄露、有害內(nèi)容生成、濫用行為操控……這些風(fēng)險(xiǎn)都不基于傳統(tǒng)漏洞,而是基于“語(yǔ)言”本身。攻擊者無(wú)需編寫(xiě)腳本,也無(wú)需針對(duì)服務(wù)端尋找漏洞,只需一段語(yǔ)義誤導(dǎo)性提示語(yǔ),便可能突破既有安全機(jī)制。傳統(tǒng) Web 安全體系根本無(wú)法理解這些語(yǔ)言型攻擊的邏輯,更不具備識(shí)別能力。這些挑戰(zhàn)正是Check Point收購(gòu)業(yè)內(nèi)領(lǐng)先的AI安全公司Lakera ,并推出 CloudGuard WAF GenAI 安全擴(kuò)展方案的初衷。
GenAI 時(shí)代安全問(wèn)題挑戰(zhàn)
傳統(tǒng)安全體系擅長(zhǎng)處理代碼層面的漏洞:SQL 注入、XSS、RCE、越權(quán)訪問(wèn)、API 濫用……而生成式 AI 面臨的風(fēng)險(xiǎn)類型卻截然不同:
·攻擊者可以通過(guò)語(yǔ)言操控模型行為
·模型可能在毫無(wú)意識(shí)的情況下生成敏感內(nèi)容
·智能體可能在外部誤導(dǎo)下執(zhí)行超出授權(quán)范圍的動(dòng)作
·對(duì)話語(yǔ)境本身可以成為攻擊載體
這類問(wèn)題的本質(zhì)不在模型內(nèi)部,而在于交互邏輯、提示語(yǔ)內(nèi)容及其語(yǔ)義關(guān)系。這也意味著:GenAI 的安全問(wèn)題不是“修漏洞”,而是“理解語(yǔ)言與意圖”。
Lakera 作為領(lǐng)先的AI安全廠商,長(zhǎng)期專注于提示注入檢測(cè)、越獄識(shí)別、語(yǔ)義濫用行為分析,并構(gòu)建了大量真實(shí)攻擊樣本與提示語(yǔ)語(yǔ)料庫(kù)。因此其技術(shù)天然適配這一新場(chǎng)景,也是后來(lái)被 Check Point 收購(gòu)并納入平臺(tái)的關(guān)鍵原因。
CloudGuard WAF + Lakera:雙層機(jī)器學(xué)習(xí)架構(gòu),面向 GenAI 的新安全模型

Check Point 最新發(fā)布的 CloudGuard WAF GenAI 安全擴(kuò)展方案,是整合 Lakera 技術(shù)后的重要落地成果。新架構(gòu)由兩層機(jī)器學(xué)習(xí)模型(Dual-Layer ML Security)構(gòu)成,專門(mén)用于理解語(yǔ)言風(fēng)險(xiǎn)、識(shí)別語(yǔ)義攻擊,并對(duì)模型交互提供實(shí)時(shí)防護(hù)。
第一層:Lakera 強(qiáng)化的監(jiān)督式機(jī)器學(xué)習(xí)(處理 90%+ GenAI 流量)
這一層基于大量攻擊提示語(yǔ)與良性提示語(yǔ)訓(xùn)練,專門(mén)識(shí)別語(yǔ)言型威脅。主要包括四類能力:
·Prompt Injection 防護(hù):識(shí)別越獄、操控性指令、暗示性語(yǔ)境
·數(shù)據(jù)泄露防護(hù):避免模型輸出中泄露敏感或機(jī)密信息
·內(nèi)容控制:過(guò)濾違反企業(yè)政策、不安全或不合規(guī)的 LLM 輸出
·使用/濫用控制:識(shí)別異常行為、濫用模式與資源消耗異常
Lakera 的加入,為這一層提供了更強(qiáng)的語(yǔ)言基礎(chǔ)與攻擊分析能力。
第二層:無(wú)監(jiān)督 機(jī)器學(xué)習(xí)(隨應(yīng)用實(shí)時(shí)學(xué)習(xí))
第二層更關(guān)注“模型在用戶業(yè)務(wù)場(chǎng)景下如何被使用”,通過(guò)實(shí)時(shí)學(xué)習(xí)與語(yǔ)義分析來(lái)降低誤報(bào)并增強(qiáng)適配性。包含:
·用戶行為模式分析
·群體行為基線
·可信輸入白名單
·語(yǔ)義精煉引擎(專利申請(qǐng)中)
這一層的價(jià)值在于使安全解決方案能理解業(yè)務(wù)語(yǔ)境,知道哪些提示語(yǔ)是自然合法的,哪些是不應(yīng)出現(xiàn)的異常語(yǔ)義。
CloudGuard WAF 與 Lakera 的深度整合,能夠在超過(guò)一百種語(yǔ)言環(huán)境中理解語(yǔ)義結(jié)構(gòu)與潛在風(fēng)險(xiǎn),真正實(shí)現(xiàn)跨語(yǔ)言、跨場(chǎng)景的威脅識(shí)別。同時(shí),雙層機(jī)器學(xué)習(xí)架構(gòu)顯著降低了誤報(bào)率,使防護(hù)結(jié)果既精準(zhǔn)又穩(wěn)定,不會(huì)對(duì)業(yè)務(wù)團(tuán)隊(duì)造成額外負(fù)擔(dān)。
更重要的是,這套體系幾乎不需要管理員投入額外調(diào)優(yōu)即可部署,企業(yè)在上線 GenAI 應(yīng)用的第一天就能夠獲得可用的防護(hù)能力。無(wú)論是模型驅(qū)動(dòng)的應(yīng)用、與 LLM 交互的 API,還是正在興起的AI Agents,都能夠開(kāi)箱即用地接入這套防護(hù)體系。這讓企業(yè)在推動(dòng) AI 創(chuàng)新的同時(shí),不必再為基礎(chǔ)安全能力的缺失而放慢節(jié)奏。
AI 安全的未來(lái):從修漏洞到理解語(yǔ)言風(fēng)險(xiǎn)
隨著生成式 AI 在企業(yè)中的滲透加深,安全的關(guān)注重心正在從“補(bǔ)丁、漏洞、權(quán)限”轉(zhuǎn)向“語(yǔ)義、意圖、行為”。AI 安全未來(lái)的核心不是“圍堵”,而是主動(dòng)理解提示語(yǔ)的目的、理解模型的語(yǔ)境、理解交互背后的攻擊意圖。
越來(lái)越多企業(yè)將 AI 嵌入業(yè)務(wù)流程,意味著安全體系必須隨著對(duì)話而演進(jìn)。威脅情報(bào)等一些列動(dòng)作,積極的為用戶打造一套保障未來(lái)的安全體系。Check Point CloudGuard WAF 與 Lakera 的有機(jī)結(jié)合旨在為用戶交付一個(gè)能學(xué)習(xí)、能適應(yīng)、能理解語(yǔ)義的AI安全系統(tǒng),而不是傳統(tǒng)規(guī)則安全引擎的延伸。
申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!
