2023年9月 29日,由阿里云、NVIDIA聯(lián)合主辦,阿里云天池平臺承辦的“NVIDIA TensorRT Hackathon 2023生成式 AI模型優(yōu)化賽”圓滿落幕。該賽事自2020年以來,已成功舉辦三屆,本屆賽事于今年 7月啟動,吸引了來自全國729支開發(fā)者團隊報名參賽,其中共有 40支團隊晉級復(fù)賽,最終 26支團隊于決賽中脫穎而出,分獲冠軍/亞軍/季軍及優(yōu)勝獎,展現(xiàn)出了卓越的技術(shù)實力。

解鎖 TensorRT-LLM挖掘生成式 AI新需求
今年的NVIDIA TensorRT Hackathon著重提升選手開發(fā) TensorRT應(yīng)用的能力。
在過去的一年里,生成式 AI迎來了爆發(fā)式增長。計算機能夠批量生成大量圖像和文本,有的甚至能夠媲美專業(yè)創(chuàng)作者的作品。這為未來生成式 AI模型的發(fā)展鋪平了道路,令人充滿期待。正因如此,NVIDIA TensorRT Hackathon 2023選擇生成式 AI模型作為比賽的主題,以激發(fā)選手的創(chuàng)新潛力。
今年的比賽設(shè)置了初賽和復(fù)賽兩組賽題——初賽階段,選手需要利用 TensorRT加速帶有 ControlNet的 Stable Diffusion pipeline,以優(yōu)化后的運行時間和出圖質(zhì)量作為主要排名依據(jù);復(fù)賽為開放賽題,選手可自由選擇公開的 Transformer模型,并利用 TensorRT或 NVIDIA TensorRT-LLM進行模型推理優(yōu)化。
NVIDIA TensorRT™作為 GPU上的 AI推理加速庫,一直以來都備受業(yè)界認可與青睞。本次比賽的背后是 NVIDIA TensorRT開發(fā)團隊對產(chǎn)品不斷進行改進和優(yōu)化的結(jié)果。通過讓更多模型能夠順利通過 ONNX自動解析得到加速,并對常見模型結(jié)構(gòu)進行深度優(yōu)化,極大地提高了 TensorRT的可用性和性能。這意味著大部分模型無需經(jīng)過繁瑣的手工優(yōu)化,就能夠在 TensorRT上有出色的性能表現(xiàn)。
TensorRT-LLM是 NVIDIA即將推出用于大語言模型推理的工具,目前已于官網(wǎng)開放試用。作為此次復(fù)賽推薦使用的開發(fā)工具之一,TensorRT-LLM包含 TensorRT深度學(xué)習編譯器,并且?guī)в薪?jīng)過優(yōu)化的 CUDA kernel、前處理和后處理步驟,以及多 GPU/多節(jié)點通信,可以在 NVIDIA GPU上提供出類拔萃的性能。它通過一個開源的模塊化 Python應(yīng)用 API提高易用性和可擴展性,使開發(fā)人員能夠嘗試新的 LLM,提供最頂尖的性能和快速自定義功能,且不需要開發(fā)人員具備深厚的 C++或 CUDA知識。
作為本次大賽的主辦方之一,阿里云天池平臺為參賽選手提供了卓越的云上技術(shù)支持,在阿里云GPU云服務(wù)器中內(nèi)置 NVIDIA A10 Tensor Core GPU,參賽者通過云上實例進行開發(fā)和訓(xùn)練優(yōu)化模型,體驗云開發(fā)時代的AI工程化魅力。同時,由NVIDIA 30名工程師組成導(dǎo)師團隊,為晉級復(fù)賽的 40支隊伍提供一對一輔導(dǎo)陪賽,助力選手獲得佳績。
從實踐到迭代腦力與創(chuàng)造力的集中比拼
本次比賽中涌現(xiàn)出大量優(yōu)秀的開發(fā)者。在獲獎的 26支團隊中,有不少團隊選擇借助 TensorRT-LLM對通義千問-7B進行模型推理優(yōu)化。
通義千問-7B(Qwen-7B)是阿里云研發(fā)的通義千問大模型系列的 70億參數(shù)規(guī)模的模型,基于 Transformer的大語言模型,在超大規(guī)模的預(yù)訓(xùn)練數(shù)據(jù)上進行訓(xùn)練得到。在 Qwen-7B的基礎(chǔ)上,還使用對齊機制打造了基于大語言模型的 AI助手 Qwen-7B-Chat。
獲得此次比賽一等獎的“無聲優(yōu)化者(著)”團隊,選擇使用 TensorRT-LLM完成對 Qwen-7B-Chat實現(xiàn)推理加速。在開發(fā)過程中,克服了 Hugging Face轉(zhuǎn) Tensor-LLM、首次運行報顯存分配錯誤、模型 logits無法對齊等挑戰(zhàn)與困難,最終在優(yōu)化效果上,吞吐量最高提升了4.57倍,生成速度最高提升了5.56倍。
而獲得此次賽事二等獎的“NaN-emm”團隊,在復(fù)賽階段,則選擇使用 TensorRT-LLM實現(xiàn) RPTQ量化。RPTQ是一種新穎的基于重排序的量化方法,同時量化了權(quán)重與中間結(jié)果(W8A8),加速了計算。從最開始不熟悉任何 LLM模型,到后續(xù)逐步學(xué)習和了解相關(guān)技術(shù),“NaN-emm”團隊啟用了GEMM plugin,GPT Attention plugin,完成了 VIT、Q-Former、Vicuna-7B模型的轉(zhuǎn)化,最終通過 40個測試數(shù)據(jù),基于 Torch框架推理耗時 145秒,而經(jīng)過 TensorRT-LLM優(yōu)化的推理引擎耗時為 115秒。
本次大賽還涌現(xiàn)了一批優(yōu)秀的開發(fā)者,本屆參賽選手鄧順子不僅率領(lǐng)隊伍獲得了一等獎,還收獲了本次比賽唯一的特別貢獻獎。他表示,2022年的 Hackathon比賽是他首次接觸 TensorRT,這使他對模型推理加速產(chǎn)生了濃厚的興趣。盡管當時未能進入復(fù)賽,但那次經(jīng)歷讓他深感自身技能的不足。在上一次比賽中,他目睹了頂尖選手使用 FasterTransformer在比賽中取得領(lǐng)先地位,這一經(jīng)歷讓他對 AI技術(shù)有了更深入的理解和追求。隨后,他積極做 TensorRT上的模型開發(fā),特別是對 ChatGLM/Bloom等新興模型進行了優(yōu)化,感受到了 TensorRT的強大。
今年,他再次參加了 TensorRT Hackathon 2023,利用 TensorRT-LLM成功優(yōu)化了 QWen大模型,實現(xiàn)了自己的夢想。他感謝主辦方給予的機會,團隊的支持,以及所有參賽者的努力,他期待未來能與大家一起為 AI技術(shù)的發(fā)展創(chuàng)造更多奇跡。
人工智能應(yīng)用場景創(chuàng)新日新月異,AI模型的開發(fā)與部署也需要注入新的動能。在此次賽事中,選手們基于 TensorRT挖掘出更多的潛能和功能需求。未來,阿里云和NVIDIA還將持續(xù)為開發(fā)者和技術(shù)愛好者提供展示技能和創(chuàng)意的平臺,天池平臺將與更多優(yōu)秀的開發(fā)者一同推進 TensorRT的發(fā)展,讓 AI在 GPU上更容易、更高效地部署。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!
隨著國際化進程加速,越來越多出海企業(yè)出于業(yè)務(wù)發(fā)展的需要,產(chǎn)生了觸達C端用戶的場景訴求,迫切需要更好用的營銷通訊工具。WhatsApp、Viber、Facebook、Instagram、郵件等等正成為企業(yè)出海溝通的關(guān)鍵渠道。一、傳統(tǒng)多通道接入的三大痛點開發(fā)復(fù)雜度高是首要問題。每個消息平臺都有獨特的AP
2025年9月24日,在杭州云棲大會中小企業(yè)AI應(yīng)用規(guī)?;l(fā)展論壇現(xiàn)場,阿里云與天貓聯(lián)合宣布啟動“AI新品類聯(lián)合計劃”。該計劃旨在依托阿里云強大的AI技術(shù)底座與淘天平臺領(lǐng)先的電商平臺運營能力,為智能硬件企業(yè)賦能,構(gòu)建從產(chǎn)品創(chuàng)新到商業(yè)落地的完整閉環(huán)。雙方成立專項項目組,在組織、政策、流量、渠道、市場等
近日,阿里云正式啟動”618創(chuàng)新加速季“大型優(yōu)惠活動,本次活動以"AI創(chuàng)新加速季、云端智惠新動力”為主題
7月26日,巴黎奧運會開幕在即,國際奧委會主席巴赫在國際轉(zhuǎn)播中心舉行的活動中表示,2024巴黎奧運會展現(xiàn)了奧運轉(zhuǎn)播的未來,廣泛應(yīng)用的阿里AI技術(shù)正在將巴黎奧運轉(zhuǎn)播帶到新的高度。(國際奧委會主席巴赫)在巴黎奧運會上,云計算將替代衛(wèi)星成為奧運賽事直播的主要方式。超過三分之二奧運直播信號將通過阿里云支撐的
“養(yǎng)龍蝦”到底要花多少錢?這個問題可能是大家最關(guān)心的。我們把成本拆成三部分:服務(wù)器租用費+大模型API調(diào)用費+雜項開銷。第一部分:服務(wù)器租用費。最省錢的方案當然是本地舊電腦自托管——零新增成本,電費忽略不計。但如前所述,你需要接受“不是7×24小時在線”的局限性。如果選擇云服務(wù)器,成本差異就很大了。
不少朋友第一次接觸OpenClaw時,都會有一個相同的困惑:這玩意兒到底該裝在哪里?OpenClaw(社區(qū)戲稱“養(yǎng)龍蝦”,因Logo為龍蝦鉗)不是普通的聊天機器人,而是一款本地優(yōu)先、可自主執(zhí)行、支持多Agent分工協(xié)作的AI執(zhí)行網(wǎng)關(guān)。說白了,它讓大模型從“只會說話”變成“會動手做事”——幫你管理文件
01別相信“一鍵養(yǎng)蝦,躺平賺錢”的鬼話打開社交媒體,你可能會看到這樣的標題:“養(yǎng)只龍蝦自動炒股,零代碼養(yǎng)出數(shù)字巴菲特!”信了,你就輸了。真實情況是:一個做跨境電商的小哥花了200元租服務(wù)器、訂閱API,指望龍蝦幫他炒股暴富。結(jié)果龍蝦開始幾天還像模像樣,后來直接擺爛,生成個干癟的大綱就敷衍了事。AI是
一張證書引發(fā)的討論4月7日,北京嫣然天使兒童醫(yī)院給陳光標發(fā)了一張感謝證書,感謝他捐贈1000萬元。這事說起來挺曲折的。此前陳光標高調(diào)說要贈給張雪一臺價值1300萬元的勞斯萊斯,張雪回應(yīng)“收了,八折賣掉捐給嫣然”,一番拉扯之后,陳光標把車變現(xiàn),1000萬元直接打到了嫣然醫(yī)院賬上。醫(yī)院發(fā)證書感謝,本來是
2026年4月7日,國家安全部就AI核心術(shù)語“詞元”(Token)發(fā)布安全警示,強調(diào)在日均調(diào)用量突破140萬億規(guī)模的市場背景下,需高度警惕由此引發(fā)的數(shù)據(jù)泄露與金融詐騙風險。據(jù)統(tǒng)計,截至今年3月,我國日均詞元調(diào)用量已超過140萬億,較2024年初增長1000多倍。詞元作為大模型處理信息的最小單元,兼具
如今出門,如果你還沒用過AI智能助手,可能真有點跟不上節(jié)奏了。無論是寫作文、查資料,還是規(guī)劃出行路線,越來越多的人已經(jīng)習慣隨手打開AI問一句。這股熱潮背后,中國AI大模型用實打?qū)嵉臄?shù)據(jù)交出了一份亮眼的成績單。根據(jù)全球知名AI模型聚合平臺OpenRouter的最新數(shù)據(jù),在3月30日至4月5日這一周,中
01別在主電腦上養(yǎng)!這是最最重要的一條“保命”建議。很多小白心血來潮,直接在自己存著畢業(yè)論文、工作文件、銀行卡信息的主力電腦上部署OpenClaw。然后悲劇發(fā)生了:讓龍蝦幫忙整理一下桌面文件,結(jié)果它把整臺電腦的文件全刪了。這不是段子,是真事。OpenClaw一旦被授予高權(quán)限,就能執(zhí)行刪除、修改等不可
01免費領(lǐng)養(yǎng),但飼料要錢很多人第一次聽說OpenClaw時,腦子里冒出的第一個念頭是:開源軟件,那不免費嗎?沒錯,OpenClaw本身確實是開源的,下載安裝一分錢不收。但你很快就會發(fā)現(xiàn),真正的開銷根本不在這里。養(yǎng)一只“龍蝦”,就像領(lǐng)養(yǎng)了一只寵物——領(lǐng)養(yǎng)免費,但“蝦缸”“蝦糧”“蝦保姆”都得自己掏錢。
一只“龍蝦”,火遍全網(wǎng)“今天你養(yǎng)龍蝦了嗎?”這句話在2026年初,迅速取代“吃了嗎”成為社交媒體上的新晉暗號。別誤會,這不是什么水產(chǎn)養(yǎng)殖新風口。這里說的“龍蝦”,是一款名為OpenClaw的開源AI智能體。因為它的圖標是一只紅色龍蝦,網(wǎng)友們便把部署、配置和使用它的過程,戲稱為“養(yǎng)龍蝦”。一個開源軟件
凌晨兩點,小王合上筆記本,揉了揉酸脹的眼睛?;艘粋€月寫出來的10萬字短劇劇本躺在硬盤里,要真正把它拍成劇,得找演員、租場地、請攝像、做后期……粗算下來少說要幾十萬,他只能把劇本繼續(xù)鎖在抽屜里。不過,現(xiàn)在小王的劇本可以“見光”了。2026年3月19日,字節(jié)跳動旗下的小云雀AI正式上線了短劇Agent