博客專欄

EEPW首頁 > 博客 > 華為3D實(shí)景地圖,30分鐘構(gòu)建超精細(xì)數(shù)字世界,達(dá)到厘米級

華為3D實(shí)景地圖,30分鐘構(gòu)建超精細(xì)數(shù)字世界,達(dá)到厘米級

發(fā)布人:機(jī)器之心 時(shí)間:2022-11-19 來源:工程師 發(fā)布文章

華為 HDC2022 發(fā)布了 3D 實(shí)景地圖,可以實(shí)現(xiàn)任意視角下 3D 物理環(huán)境的實(shí)景渲染。

千百年來,人類都致力于記錄和解釋身處的物理世界。隨著計(jì)算機(jī)科學(xué)的發(fā)展,將物理世界數(shù)字化重建,不僅是長遠(yuǎn)的理想,更是千行百業(yè)努力的當(dāng)下工作。真實(shí)的數(shù)字化重建三維物理環(huán)境,進(jìn)而從任意視角觀察重建的環(huán)境,是圖形學(xué)、計(jì)算機(jī)視覺領(lǐng)域每個(gè)人的終極夢想,也是虛擬增強(qiáng)現(xiàn)實(shí)、元宇宙等眾多未來應(yīng)用的基石。


華為 HDC2022 發(fā)布了令人震撼的 3D 實(shí)景地圖,可以實(shí)現(xiàn)任意視角下 3D 物理環(huán)境的實(shí)景渲染。通過 2500 張照片,僅需 30 分鐘就可以構(gòu)建出 5 平方公里的超精細(xì)數(shù)字世界,擁有厘米級精細(xì)化建筑和真實(shí)光照還原能力。


圖片

圖片


華為 3D 實(shí)景地圖技術(shù)由畢業(yè)于斯坦福大學(xué)、現(xiàn)華為 2012 實(shí)驗(yàn)室技術(shù)專家黃經(jīng)緯博士及其團(tuán)隊(duì)研發(fā)完成。先來看看使用實(shí)景渲染技術(shù)的室內(nèi)外效果。


,時(shí)長01:23



1 問題背景


從任意視角觀察一個(gè)三維場景被廣泛應(yīng)用于游戲領(lǐng)域。通過美術(shù)師繪制的三維場景加以標(biāo)準(zhǔn)的 CG 渲染管線,用戶可以自由的探索場景的每個(gè)角落。為了用自動(dòng)化的手段得到更加真實(shí)的場景,計(jì)算機(jī)視覺從業(yè)人員致力于采集真實(shí)的物理世界的數(shù)據(jù),用以重建一個(gè)孿生的三維場景供人預(yù)覽。然而經(jīng)過數(shù)十年的發(fā)展,重建模型的渲染效果仍不足以替代人工生產(chǎn)的場景。為了進(jìn)一步改善復(fù)雜光照場景下的渲染效果,光場重建和渲染技術(shù)被提出,并在小場景下得到了驚艷的效果。近些年,神經(jīng)輻射場(NeRF)的概念,可用于同時(shí)重建復(fù)雜的幾何和光照。然而對于復(fù)雜的大場景,這些方案都存在一定的局限性。華為 3D 實(shí)景地圖整合了各方案的優(yōu)勢,從而可以在復(fù)雜大場景下進(jìn)行高質(zhì)量的真實(shí)重建和快速渲染。


2 相關(guān)工作的局限與機(jī)遇


除去很多昂貴的三維重建解決方案,最接近商用的解決方案仍然是基于多視角圖片的三維重建。然而,重建技術(shù)往往假設(shè)表面在各視角下?lián)碛幸恢碌墓庹?,因此無法處理高光、半透明物體的重建。光場重建模型可以根據(jù)不同視角采集的光線加權(quán)來處理復(fù)雜光照,但在表面重建錯(cuò)誤的情況下,新視角下的渲染往往存在殘影。雖然神經(jīng)輻射場(NeRF)技術(shù)使用復(fù)雜的模型能正確的概括真實(shí)場景,但恢復(fù)模型參數(shù)往往需要稠密采集的圖片,否則就成為一個(gè)欠約束問題,在稀疏采集的大場景下新視角的泛化性尤為欠缺。


然而,各個(gè)方案亦有他們的優(yōu)勢?;诙嘁暯菆D片的各向同性光照假設(shè),在大部分情況下都是實(shí)用的,基于搜索深度信息的本質(zhì)使其擁有稀疏視角的高效重建并擁有很好的泛化性,能夠很好的彌補(bǔ)光場渲染和神經(jīng)輻射場渲染的不足。光場渲染可以直接從采集的光線中獲取顏色,既保證真實(shí),又無需像神經(jīng)輻射場那樣優(yōu)化復(fù)雜的 MLP 或者球諧函數(shù)。神經(jīng)輻射場作為一個(gè)全局模型,改善了傳統(tǒng)重建融合局部重建結(jié)果無法全局優(yōu)化的情況,同時(shí)引入不透明度下的體渲染增強(qiáng)了模型描述環(huán)境的能力。


3 解決方案


華為 3D 實(shí)景地圖結(jié)合了各家所長,提出了顯式輻射場模型,系統(tǒng)模塊如下:


圖片


第一階段,系統(tǒng)使用傳統(tǒng)三維重建方法對環(huán)境進(jìn)行粗略構(gòu)建,形成三角形網(wǎng)格。針對 3D 數(shù)字溪村場景,初始的幾何構(gòu)建能力使系統(tǒng)能使用 500 米高空航拍的 2500 張圖片快速構(gòu)建,并擁有新視角下渲染的泛化性。這個(gè)模型是粗模,雖然可以被直接用于渲染,但幾何和環(huán)境光照的恢復(fù)不夠真實(shí)。


在第二階段,粗模作為環(huán)境輪廓,被初始化為顯示輻射場。其具體的表達(dá)形式是純幾何的,即在粗模表面附近顯式的記錄不透明度為 1,其他地方不透明度為 0。接下來,系統(tǒng)使用采集的圖片和三維重建中獲取的圖片位姿進(jìn)一步優(yōu)化輻射場模型。具體而言,可以對于每個(gè)局部區(qū)域進(jìn)行區(qū)域增長式優(yōu)化不透明度,從而過濾重建粗模中的噪音,并補(bǔ)全模型的缺失幾何。在此過程中,不同于神經(jīng)輻射場對光照模型用 MLP 或球諧函數(shù)來表達(dá),而是直接使用類似于光場渲染的采樣技術(shù),快速獲得特定位置和方向上的最佳模型光照。采樣中由于使用加權(quán)平均的限制,空間中沒有表面的點(diǎn)與對應(yīng)采集圖片相應(yīng)像素比,仍會引起較大的顏色誤差。因此,可以使用 L2 損失函數(shù)調(diào)整不透明度,從而優(yōu)化幾何體。


在最終階段,輻射場模型轉(zhuǎn)化為可用于渲染管線支持的網(wǎng)格模型。使用紋理模型進(jìn)行光柵化渲染對性能尤為關(guān)鍵。系統(tǒng)將顯式的輻射場模型重構(gòu)回網(wǎng)格,并根據(jù)光場渲染壓縮技術(shù)將表面光照壓縮成多個(gè)紋理,用于使用著色器進(jìn)行快速渲染。對于大規(guī)模場景,系統(tǒng)對幾何進(jìn)行 LOD 層次化,使模型渲染可以由粗至細(xì)加載進(jìn)行。


借此,顯式輻射場技術(shù)綜合百家所長,能夠?qū)崿F(xiàn)良好的視角泛化性、精細(xì)的幾何和真實(shí)光照效果,并以高效的渲染效率處理大規(guī)模場景。


4 效果展示


顯式輻射場技術(shù),可以幫助重建的環(huán)境獲取真實(shí)的渲染光照效果。


圖片


對比傳統(tǒng)幾何重建(左),輻射場能夠更好的恢復(fù)精細(xì)的橋梁結(jié)構(gòu)(右)。


圖片


同時(shí),本技術(shù)可以恢復(fù)復(fù)雜的材質(zhì)(如透明玻璃、高光桌面)效果和復(fù)雜的幾何體(植物、吊燈)。


圖片


5 挑戰(zhàn)與未來


雖然在技術(shù)上實(shí)現(xiàn)了顯著突破,但其商業(yè)價(jià)值仍需時(shí)間去發(fā)掘和思考,其主要問題在于環(huán)境采集的方式。為了得到優(yōu)質(zhì)的環(huán)境重建,圖像的采集往往需要專業(yè)人士或者專業(yè)設(shè)備來實(shí)現(xiàn)。例如,大規(guī)模的室外環(huán)境可以通過專業(yè)的大飛機(jī)傾斜攝影完成。航飛場景往往容易遮擋地面,對于地面應(yīng)用,如高自由度的街景,仍需要地面采集的數(shù)據(jù)以避免航飛帶來的遮擋問題。另外為了保證環(huán)境的高覆蓋采集,地面的采集往往需要使用全景設(shè)備,也為采集帶來了額外的成本而不適用于眾包生產(chǎn)。


從應(yīng)用來看,未來最廣闊的市場仍屬于是廣大消費(fèi)者,因此,對于大規(guī)模實(shí)景地圖的云渲染技術(shù)至關(guān)重要。另外,如何讓實(shí)景渲染的真實(shí)場景與有價(jià)值的應(yīng)用結(jié)合帶來全新的用戶體驗(yàn),仍然是元宇宙行業(yè)需要思考的首要命題。對于 2B 場景,確實(shí)有大量的客戶需要實(shí)景渲染能力,然而其所帶來的價(jià)值以及生產(chǎn)成本的平衡,需要進(jìn)一步探索,從而找到技術(shù)的真正落地點(diǎn)。


6 致謝


本技術(shù)由華為 2012 實(shí)驗(yàn)室技術(shù)專家黃經(jīng)緯,預(yù)研算法工程師郭曉陽、時(shí)北極,三維重建工程師張彥峰,空三與采集負(fù)責(zé)人張行航等成員共同完成。更多有關(guān) 3D 數(shù)字溪村的體驗(yàn)可在 Petal Map 地圖應(yīng)用中搜索松山湖溪村進(jìn)行體驗(yàn)。


  • 歡迎訪問技術(shù)負(fù)責(zé)人主頁:https://cs.stanford.edu/~jingweih

  • 或者通過郵件方式聯(lián)系作者:jingweih@cs.stanford.edu


*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉