新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 連獲“雙獎(jiǎng)”,Xilinx AI 團(tuán)隊(duì)實(shí)力綻放國(guó)際視覺(jué)頂會(huì)

連獲“雙獎(jiǎng)”,Xilinx AI 團(tuán)隊(duì)實(shí)力綻放國(guó)際視覺(jué)頂會(huì)

作者:?jiǎn)昔?賽靈思AI 研發(fā)副總裁,北京區(qū)總經(jīng)理 時(shí)間:2021-11-18 來(lái)源:電子產(chǎn)品世界 收藏

今年的夏天,對(duì)賽靈思中國(guó) AI產(chǎn)品團(tuán)隊(duì)來(lái)說(shuō)是一個(gè)不平凡的夏季: 在相繼舉行的一年一度2021 CVPR (IEEE Computer Vision and Pattern Recognition conference,即IEEE國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議),以及2021 ICCV ( IEEE International Conference on Computer Vision,即國(guó)際計(jì)算機(jī)視覺(jué)大會(huì))上,我們的團(tuán)隊(duì)每個(gè)大會(huì)各斬獲兩份榮譽(yù),“雙獎(jiǎng)”連連,激動(dòng)人心。

本文引用地址:http://butianyuan.cn/article/202111/429725.htm

CVPR 和ICCV 是全球排名前三的計(jì)算機(jī)視覺(jué)學(xué)術(shù)頂級(jí)會(huì)議中的兩個(gè)(第三個(gè)是ECCV, 即歐洲計(jì)算機(jī)視覺(jué)會(huì)議 ),兩大頂會(huì)相繼授予的雙重榮譽(yù),無(wú)疑是對(duì)賽靈思 AI 產(chǎn)品團(tuán)隊(duì)在全球競(jìng)爭(zhēng)領(lǐng)域技術(shù)實(shí)力和創(chuàng)新能力的高度認(rèn)可和有力證明。

1637202564803653.png

單羿,賽靈思AI 研發(fā)副總裁, 北京區(qū)總經(jīng)理

在人工智能領(lǐng)域, CVPR 位列谷歌 ( Google) 學(xué)術(shù)總榜第一名。2021 CVPR接受了賽靈思 AI 研發(fā)團(tuán)隊(duì)題目為《RankDetNet:探索目標(biāo)檢測(cè)中的排序約束(RankDetNet: Delving into Ranking Constraints for Object Detection )》的論文。與此同時(shí),該團(tuán)隊(duì)也在CVPR 自動(dòng)駕駛研討會(huì)組織的 2021 Waymo 開(kāi)放式數(shù)據(jù)集挑戰(zhàn)賽中榮獲三等獎(jiǎng)。論文連續(xù)兩年入選 CVPR和挑戰(zhàn)賽全球季軍的成績(jī),展示了賽靈思 AI 研發(fā)團(tuán)隊(duì)在理論與實(shí)踐“雙引擎”發(fā)展的道路上,正闊步前進(jìn)。

我們的論文采用一種新穎的方法 — 一種用于替代分類來(lái)學(xué)習(xí)候選框的排序和定位的排序優(yōu)化方法。我們的工程師探索了各種排序約束條件,如全局排序、特定類別排序以及 IoU-guided 排序的損失等。傳統(tǒng)的分類損失會(huì)忽略候選框之間的聯(lián)系,通過(guò)配對(duì)排序優(yōu)化的方法可以對(duì)候選框之間施加約束,這些約束有利于保留高質(zhì)量的檢測(cè)結(jié)果。該方法很容易實(shí)現(xiàn),能夠與主流檢測(cè)框架兼容,而且不會(huì)增加推斷計(jì)算。   

1637202583662497.png

我們的算法是用三種配對(duì)的排序損失替換常規(guī)的分類損失。最重要的是,RankDetNet 在 2D 及 3D 目標(biāo)檢測(cè)基線方法上實(shí)現(xiàn)了性能的一致提高。

image.png

至于“Waymo 開(kāi)放式數(shù)據(jù)集實(shí)時(shí)3D檢測(cè)挑戰(zhàn)賽”,參賽者的任務(wù)是通過(guò)一幅由3D LIDAR掃描生成的深度圖,來(lái)為場(chǎng)景中的目標(biāo)生成3D檢測(cè)結(jié)果框。與此同時(shí)需要保證檢測(cè)模型在英偉達(dá)Tesla V100 GPU上能達(dá)到每幀70毫秒的推理速度。

在此次挑戰(zhàn)賽項(xiàng)目上,我們的團(tuán)隊(duì)展示了賽靈思在高級(jí)駕駛輔助系統(tǒng) (ADAS) 應(yīng)用上的算法開(kāi)發(fā)實(shí)力。依靠多年來(lái)端側(cè)部署的經(jīng)驗(yàn),我們使用PointPillars做為主干網(wǎng)絡(luò)加快提取點(diǎn)云特征,同時(shí)采用Centerpoint的無(wú)錨框檢測(cè)頭提升精度。為了保證算法的實(shí)時(shí)性,引入了結(jié)構(gòu)重新參數(shù)化技術(shù)、Quality Focal Loss等無(wú)推斷時(shí)成本的方法來(lái)優(yōu)化檢測(cè)性能;同時(shí)還在基于網(wǎng)格特征的基礎(chǔ)上引入了基于原始點(diǎn)云的特征,以改進(jìn)檢測(cè)目標(biāo)的特征表達(dá)。使用這些方法,該團(tuán)隊(duì)最終在68.4毫秒每幀的檢測(cè)速度下達(dá)到了70.46 mAPH/L2的準(zhǔn)確度。這個(gè)成績(jī)讓該團(tuán)隊(duì)在3D點(diǎn)云檢測(cè)挑戰(zhàn)賽中榮獲了第三名的成績(jī)。

1637202907248653.png

而在今年隨后舉行的ICCV 上,賽靈思 AI 研發(fā)團(tuán)隊(duì)又有兩篇論文成功入選,再次獲得“雙贏”榮譽(yù)。

第一篇論文《通過(guò)Bin正則化改進(jìn)低精度網(wǎng)絡(luò)量化,(Improving Low-Precision Network Quantization via Bin Regularization)》,提出了一種新的權(quán)值正則化算法,旨在改進(jìn)低比特網(wǎng)絡(luò)的量化精度。該算法并沒(méi)有優(yōu)化weights的整體分布,而是分別優(yōu)化每個(gè)量化Bin中的數(shù)據(jù),使其盡可能接近目標(biāo)量化值。這種Bin正則化 方法可以讓weights的每個(gè)量化Bin的分布盡可能尖銳,理想情況下接近于Dirac delta分布。主流圖像分類數(shù)據(jù)集 ImageNet上的實(shí)驗(yàn)表明,我們的方法對(duì)于不同網(wǎng)絡(luò)結(jié)構(gòu)(ResNet, MobileNetV2, MobileNetV3)、不同bit widths(4/3/2 bits)都獲得了一致的量化精度提升。特別地,我們提出的Bin正則化方法使得 2 bits 的 MobileNetV2 和MobileNetV3-Small 在 ImageNet 上的top-1分別提高了 3.9% 和 4.9%。此外,該方法易于實(shí)現(xiàn),而且很容易集成到現(xiàn)有的低比特優(yōu)化算法上,從而進(jìn)一步提高模型量化準(zhǔn)確率。

1637202952945736.png

1637202980475070.png

1637203010698307.png

第二篇論文《無(wú)監(jiān)督行人再識(shí)別的判別表示學(xué)習(xí)(Discriminant representation learning for unsupervised pedestrian re-identification)》,重點(diǎn)解決行人識(shí)別模型中典型的“兩階段”訓(xùn)練方法問(wèn)題。行人再識(shí)別是智能監(jiān)控和智慧城市中的重要任務(wù),主要目的是在跨攝像頭中識(shí)別同一個(gè)行人身份。有監(jiān)督行人再識(shí)別通常需要耗時(shí)耗力的數(shù)據(jù)標(biāo)注,很大程度上限制了模型的可擴(kuò)展性。例如,當(dāng)把一個(gè)在某個(gè)場(chǎng)景有監(jiān)督預(yù)訓(xùn)練的模型直接應(yīng)用在一個(gè)新場(chǎng)景時(shí),識(shí)別效果往往大打折扣。因此,無(wú)監(jiān)督域適應(yīng)下的行人再識(shí)別應(yīng)運(yùn)而生,可以應(yīng)對(duì)新場(chǎng)景沒(méi)有數(shù)據(jù)標(biāo)簽的問(wèn)題。

1637203049204331.png

為此,我們提出了三種技術(shù)手段來(lái)解決這些問(wèn)題。首先,我們通過(guò)特征學(xué)習(xí)和聚類精化的迭代優(yōu)化提出了一種聚類對(duì)比學(xué)習(xí)算法(CCL,cluster-wise contrastive learning),以無(wú)監(jiān)督的方式學(xué)習(xí)抗噪表示。其次,我們采用漸進(jìn)式域適應(yīng)(PDA,progressive domain adaptation) 算法來(lái)逐步縮小源數(shù)據(jù)和目標(biāo)數(shù)據(jù)之間的域差距。第三,我們提出了傅里葉增強(qiáng)(FA,F(xiàn)ourier augmentation),通過(guò)在傅里葉空間中施加額外的約束來(lái)進(jìn)一步最大化 re-ID 模型的類可分離性。實(shí)驗(yàn)證明,這種方法在多個(gè)主流 benchmark 上刷新無(wú)監(jiān)督行人再識(shí)別的最好性能。例如,在 Market-to-Duke、Duke-to-Market、Market-to-MSMT和Duke-to-MSMT 四個(gè) benchmark 上分別超越 MMT 方法 8.1%、 9.9%、11.4%和11.1% mAP。

如需查看完整論文或解決方案,請(qǐng)打開(kāi)以下每篇論文的超鏈接:

●   《RankDetNet:探索目標(biāo)檢測(cè)中的排序約束》,作者:劉吉、李棟、鄭榕樟、田露,單羿。

●   《Waymo 開(kāi)放式數(shù)據(jù)集挑戰(zhàn)賽實(shí)時(shí) 3D 檢測(cè)跟蹤解決方案》,作者:劉涵、鄭榕樟、彭勁璋 和 田露。

●    《通過(guò)容器正則化改進(jìn)低精度網(wǎng)絡(luò)量化》,作者:韓甜甜、李棟、劉吉、田露、單羿。

●   《無(wú)監(jiān)督行人再識(shí)別的判別表示學(xué)習(xí)》作者:Takashi Isobe、李棟、田露、陳威華、單羿、王生進(jìn) 。

為讓更多的開(kāi)發(fā)者受益于賽靈思最新人工智能及其它開(kāi)發(fā)者相關(guān)技術(shù), 建議有興趣的朋友參加X(jué)ilinx Adapt 2021年度線上技術(shù)盛會(huì),中國(guó)站將于2021年11月16日 - 12月14日舉行,持續(xù)5周。 該盛會(huì)云集眾多合作伙伴、客戶及賽靈思高層和技術(shù)專家,致力于通過(guò)共同探討和分享最新的技術(shù)方案、用戶案例,產(chǎn)品培訓(xùn)和應(yīng)用實(shí)操,幫助用戶發(fā)掘 “自適應(yīng)計(jì)算” 的價(jià)值,打造適合自己的應(yīng)用解決方案。會(huì)議內(nèi)容涵蓋數(shù)據(jù)中心、有線/無(wú)線通信、汽車電子、專業(yè)音視頻、工業(yè)自動(dòng)化、機(jī)器視覺(jué)、醫(yī)療、消費(fèi)電子等不同應(yīng)用領(lǐng)域,其中“開(kāi)發(fā)者系列:Vitis 與 AI 專場(chǎng)”將于12 月2日和7日分上下半場(chǎng)舉行,如果有讀者需要與賽靈思的AI 專家們線上交流,請(qǐng)掃描二維碼預(yù)定會(huì)議:

image.png

image.png



關(guān)鍵詞:

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉