WAVE SUMMIT 2022深度學習開發(fā)者峰會上周圓滿落幕,來自產(chǎn)學研界的專家學者和資深AI工程師在七大平行論壇帶來了精彩的技術分享。 本次峰會專設【智能硬核 生態(tài)共創(chuàng)】平行論壇,昆侖芯科技生物計算研發(fā)總監(jiān)鄭煥鑫受邀參會,并進行“昆侖芯×飛槳:共創(chuàng)智能計算‘芯’生態(tài)”的主題演講 。
昆侖芯適配百度飛槳等主流框架,支持推理和訓練場景,生態(tài)建設正在逐漸完備,已在豐富的業(yè)務場景落地。作為國內(nèi)人工智能芯片領域的先行者,昆侖芯科技依托團隊多年耕耘芯片和智能計算領域的行業(yè)影響力,致力于攜手上下游合作伙伴,打造智能計算“芯”生態(tài)。
以下內(nèi)容來自演講實錄:
大家好,我是來自昆侖芯科技的鄭煥鑫。
昆侖芯科技是一家AI芯片公司,2021年4月完成了獨立融資,首輪估值約130億元。公司前身是百度智能芯片及架構部,在實際業(yè)務場景中深耕AI加速領域已十余年,是一家在體系結構、芯片實現(xiàn)、軟件系統(tǒng)和場景應用均有深厚積累的AI芯片企業(yè)。
昆侖芯科技研發(fā)實力雄厚,團隊成員擁有全球頂尖學術背景,并提出了100%自研的通用AI計算處理器核心架構昆侖芯XPU,研究成果也在Hot Chips、ISSCC等國際頂級學術會議中成功發(fā)表。
在落地實現(xiàn)上,昆侖芯1代在百度搜索引擎、小度等業(yè)務中部署超過2萬片,是國內(nèi)唯一一款經(jīng)歷過互聯(lián)網(wǎng)大規(guī)模核心算法考驗的云端AI芯片產(chǎn)品。昆侖芯2代采用7nm制程,也已于2021年8月量產(chǎn)。更先進的昆侖芯3代、自動駕駛芯片等多個產(chǎn)品均已啟動研發(fā)。
隨著AI越來越普及,其依托的算力需求也越來越大。在這個時代背景下,昆侖芯的愿景是“成為劃時代,全球領先的智能計算公司”,為AI發(fā)展提供算力賦能。
昆侖芯在AI芯片上經(jīng)歷了超過10年的發(fā)展歷程。我們在2011年啟動FPGA AI加速器項目,到2015年部署5000片,2017年部署超過12000片,是業(yè)界最大的量;2017年發(fā)布自研架構昆侖芯XPU;2018年啟動昆侖芯;2020年昆侖芯1代大規(guī)模部署;2021年昆侖芯2代量產(chǎn)。

昆侖芯軟硬件架構及兩代產(chǎn)品
不同于GPU的發(fā)展歷程,昆侖芯1代在AI發(fā)展相對成熟的時候量產(chǎn),在設計階段就更好地理解了AI場景,提供了更多的加速計算單元,并且保留了足夠的通用計算單元,最終達到了更好的性價比。
這是我們的昆侖芯XPU架構:SDNN-軟件定義神經(jīng)網(wǎng)絡引擎,是我們自研的核心張量計算單元,用于加速卷積和矩陣乘法;Cluster為我們的通用計算部件;我們也是國內(nèi)業(yè)界率先支持GDDR6的廠商之一;我們的Shared Memory片上共享內(nèi)存,有力保證了計算單元的高并發(fā)、低時延訪問;提供高達200GB/s的片間互聯(lián)帶寬,有效提升了大規(guī)模分布式訓練中的數(shù)據(jù)傳輸效率,減少通訊延時;支持PCIe第四代接口,雙向帶寬可達到64GB/s。

這是我們的軟件架構圖:在應用層,我們支持訓練、推理以及科學計算;在框架層,除了深度合作的PaddlePaddle,還支持TensorFlow,PyTorch等;我們提供了豐富的SDK,包括編輯器、圖引擎、高性能算子庫、高性能通訊庫,以及驅動;在環(huán)境部署上,我們支持公有云服務、智算中心、智能邊緣設備等。

這是我們的產(chǎn)品研發(fā)路線,昆侖芯1代采用14nm工藝,昆侖芯2代采用7nm工藝,此外我們的昆侖芯3代、昆侖芯4代都在研發(fā)路徑中。

昆侖芯1代產(chǎn)品包括兩種形式,其中K100是K200的算力一半版本,主要用在邊緣端。昆侖芯2代產(chǎn)品中,R200 AI加速卡主要用于推理,支持INT8/INT16/INT32/FP16/FP32等精度,非常值得一提的是昆侖芯R200 AI加速卡支持視頻編解碼能力;R480-X8 AI加速器組是我們的單機8卡訓練方案,提供200GB/s的片間互聯(lián)帶寬。
概括起來,昆侖芯2代有如下特點:
1.通用計算能力顯著增強,可靈活支持AI算法的演進,提升資源投入效用;
2.硬件虛擬化,提升AI算力資源的利用率;
3.高性能分布式AI系統(tǒng),加速AI數(shù)據(jù)并行和模型并行中的高速數(shù)據(jù)交換。
介紹完硬件參數(shù),我們看看昆侖芯的軟件參數(shù)。以R200 AI加速卡為例,相比較于業(yè)界主流產(chǎn)品,典型AI負載性能提升1.5倍左右,其中GEMM矩陣乘法性能為1.7倍,BERT典型自然語言處理性能加速比為1.4倍。對Transformer類有同樣的效果;Yolov3,Yolov5性能加速1.3倍;ResNet50視覺分類算法加速1.2倍。
昆侖芯AI算力賦能千行百業(yè)
昆侖芯科技前身為百度智能芯片及架構部,天然對互聯(lián)網(wǎng)AI應用有深入了解。以百度搜索場景為例,我們實現(xiàn)了過萬片的部署,與飛槳聯(lián)合優(yōu)化模型:DeepFM、Wide&Deep。此外,我們在包括百度在內(nèi)的多家互聯(lián)網(wǎng)公司上均有不錯的落地表現(xiàn)
在智能城市領域,萬級別攝像機收集視頻流,通過芯片編解碼獲取圖片,對圖片進行人臉檢索以及比對。該場景主要是以CV類算法為主,我們和飛槳聯(lián)合優(yōu)化模型包括:ResNet50、MobileNet-v3、Unet、Yolov3-DarkNet53、SSD-ResNet34 。
工業(yè)質檢場景,高清工業(yè)相機拍攝零件照片進行質量檢測。搭載國產(chǎn)AI算力機的質檢設備替代人工質檢,大大節(jié)省了人力,14個月即可收回成本。同時,“5G+AI+工業(yè)互聯(lián)網(wǎng)”解決方案大大提高了整廠的智能化水平,幫助企業(yè)降低損耗,提升約10%的良品率。在這個方向上,我們和飛槳聯(lián)合開發(fā)了Yolov3-DarkNet53、SSD-ResNet34。
在目前國內(nèi)前沿的生物計算領域,我們也對基因測序算法Blast以及蛋白質折疊預測算法進行了硬件適配,并取得了不錯的加速比。
綜上,我們在互聯(lián)網(wǎng)、智慧城市、智慧工業(yè)、生物計算、智慧金融、智慧政務、智算中心以及智慧交通等各行業(yè) AI 應用落地場景中均提供了多種解決方案。
總結來看,昆侖芯科技最獨特優(yōu)勢在于:在百度搜索引擎、小度等業(yè)務中部署超過2萬片,是國內(nèi)唯一一款經(jīng)歷了互聯(lián)網(wǎng)大規(guī)模核心算法考驗的云端AI芯片,產(chǎn)品的可用性、可靠性、穩(wěn)定性、魯棒性得到了驗證,也證明了團隊在芯片架構、軟件棧、工程化系統(tǒng)層級的技術實力。此外,昆侖芯靈活支持多個AI場景,如視覺、語音、NLP和推薦等;不僅如此,昆侖芯也支持HPC、生物計算等算法的加速。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!
在信息技術持續(xù)革新與市場競爭日趨激烈的行業(yè)環(huán)境下,本地生活服務領域正經(jīng)歷著深刻的智能化轉型。這一轉型過程不僅涉及技術層面的升級迭代,更關乎服務模式與行業(yè)生態(tài)的系統(tǒng)性重構。閱北科技通過持續(xù)推進算法技術的優(yōu)化與應用,在提升服務精準度和用戶滿意度方面進行了積極探索。閱北的算法系統(tǒng)建立在持續(xù)優(yōu)化的技術架構之
2025年10月17日,上海在人工智能技術加速演進、產(chǎn)業(yè)生態(tài)持續(xù)升級的關鍵時期,由上海市漕河涇新興技術開發(fā)區(qū)發(fā)展總公司聯(lián)合天罡智算交易平臺共同發(fā)起成立的“漕河涇天罡人工智能研究院”(以下簡稱“研究院”)正式揭牌。研究院將依托漕河涇的產(chǎn)業(yè)資源與平臺優(yōu)勢,聯(lián)合上海交通大學、上海社會科學院等權威機構,聚焦
“AI大模型六小虎”百川智能危機重重。這是前搜狗CEO王小川創(chuàng)辦的AI公司。昨天就爆出新聞,百川智能的聯(lián)合創(chuàng)始人離職,這是王小川入局AI的第一道大坎。接下的成敗非常關鍵:(1)拿下河北(2)學習科大訊飛百川智能離職高端概覽:(1)2025年7月10日,百川智能技術聯(lián)合創(chuàng)始人謝劍將離職。他是百川只能的
人工智能作為引領新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術,正在加速融入千行百業(yè),便利千家萬戶。
一張證書引發(fā)的討論4月7日,北京嫣然天使兒童醫(yī)院給陳光標發(fā)了一張感謝證書,感謝他捐贈1000萬元。這事說起來挺曲折的。此前陳光標高調(diào)說要贈給張雪一臺價值1300萬元的勞斯萊斯,張雪回應“收了,八折賣掉捐給嫣然”,一番拉扯之后,陳光標把車變現(xiàn),1000萬元直接打到了嫣然醫(yī)院賬上。醫(yī)院發(fā)證書感謝,本來是
2026年4月7日,國家安全部就AI核心術語“詞元”(Token)發(fā)布安全警示,強調(diào)在日均調(diào)用量突破140萬億規(guī)模的市場背景下,需高度警惕由此引發(fā)的數(shù)據(jù)泄露與金融詐騙風險。據(jù)統(tǒng)計,截至今年3月,我國日均詞元調(diào)用量已超過140萬億,較2024年初增長1000多倍。詞元作為大模型處理信息的最小單元,兼具
如今出門,如果你還沒用過AI智能助手,可能真有點跟不上節(jié)奏了。無論是寫作文、查資料,還是規(guī)劃出行路線,越來越多的人已經(jīng)習慣隨手打開AI問一句。這股熱潮背后,中國AI大模型用實打實的數(shù)據(jù)交出了一份亮眼的成績單。根據(jù)全球知名AI模型聚合平臺OpenRouter的最新數(shù)據(jù),在3月30日至4月5日這一周,中
01別在主電腦上養(yǎng)!這是最最重要的一條“保命”建議。很多小白心血來潮,直接在自己存著畢業(yè)論文、工作文件、銀行卡信息的主力電腦上部署OpenClaw。然后悲劇發(fā)生了:讓龍蝦幫忙整理一下桌面文件,結果它把整臺電腦的文件全刪了。這不是段子,是真事。OpenClaw一旦被授予高權限,就能執(zhí)行刪除、修改等不可
01免費領養(yǎng),但飼料要錢很多人第一次聽說OpenClaw時,腦子里冒出的第一個念頭是:開源軟件,那不免費嗎?沒錯,OpenClaw本身確實是開源的,下載安裝一分錢不收。但你很快就會發(fā)現(xiàn),真正的開銷根本不在這里。養(yǎng)一只“龍蝦”,就像領養(yǎng)了一只寵物——領養(yǎng)免費,但“蝦缸”“蝦糧”“蝦保姆”都得自己掏錢。
一只“龍蝦”,火遍全網(wǎng)“今天你養(yǎng)龍蝦了嗎?”這句話在2026年初,迅速取代“吃了嗎”成為社交媒體上的新晉暗號。別誤會,這不是什么水產(chǎn)養(yǎng)殖新風口。這里說的“龍蝦”,是一款名為OpenClaw的開源AI智能體。因為它的圖標是一只紅色龍蝦,網(wǎng)友們便把部署、配置和使用它的過程,戲稱為“養(yǎng)龍蝦”。一個開源軟件
凌晨兩點,小王合上筆記本,揉了揉酸脹的眼睛?;艘粋€月寫出來的10萬字短劇劇本躺在硬盤里,要真正把它拍成劇,得找演員、租場地、請攝像、做后期……粗算下來少說要幾十萬,他只能把劇本繼續(xù)鎖在抽屜里。不過,現(xiàn)在小王的劇本可以“見光”了。2026年3月19日,字節(jié)跳動旗下的小云雀AI正式上線了短劇Agent
你一定遇到過這樣的場景:明明剛和AI助手聊了半個小時的項目細節(jié),退出會話后重新打開,它卻像個失憶患者一樣,連你上一輪說過什么背景信息都忘得一干二凈,你又得從頭把需求講一遍。這種“聊完就忘”的體驗,讓無數(shù)使用AI智能體的用戶深感頭疼。為了解決這一普遍困擾,騰訊云在4月3日正式推出了名為“龍蝦”的記憶服
4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸彈——全新一代開源大模型Gemma4正式發(fā)布,以極其寬松的Apache2.0協(xié)議向全球開發(fā)者免費開放。這是自2025年3月發(fā)布Gemma3以來,谷歌時隔整整一年的重大迭代。本次發(fā)布的Gemma4包含四個不同規(guī)格的版本:E2B(有效20億參數(shù))、E4
AI龍蝦也會生病。別怕,大部分病不是什么絕癥,自己在家就能治。我養(yǎng)OpenClaw一年多,總結出五種最常見的毛病,附上我的“土方子”,希望對你有用。病一:不吃食(完全不執(zhí)行任何任務)癥狀:你給了指令,它沒反應,日志里一片空白。就像龍蝦趴在塘底不動彈,碰它也不理。病因:通常是進程卡死了,或者依賴服務沒