ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強勢圍觀!


來自復旦、谷歌和Nuro,Inc提出一種深度BA方法來實現SFM重建,通過設計一種基于物理原理的架構來實現優化過程中的結構約束。架構中包含了兩個cost volum來估計深度和位置,迭代的進行改進。其中不僅加入圖像度量來保證輸入間的連續性,同時還添加了幾何連續性保證不同視角間的深度一致。位置和深度的顯式約束結合了BA和深度學習的共同優勢,實現了非常好重建性能。


來自牛津大學、百度和港中文的研究人員提出了一種具有域不變性的立體匹配網絡,通過域歸一化的手段來正則化學習到的分布,同時利用可訓練的非局域圖濾波器抽取結構和幾何特征進一步增強域不變性的的泛化性。下圖顯示了域歸一化和文中使用的圖結構。



來自康奈爾和浙大的研究人員提出了一種弱監督的特征描述子學習方法,基于圖像和相機間的相對位置來進行監督。為此采用了包含極線約束的損失函數和完全可差分的高效模型架構。由于脫離了逐像素約束的限制,這種方法可以在更為廣泛的數據集上訓練得到更無偏更通用的描述子。下圖顯示了僅僅依賴相機位置的極線約束訓練過程(相同顏色對應點和極線):

下圖則是極線約束的具體示意圖:

可差分層和由粗到細的模塊結構:


來自清華、慕尼黑理工和谷歌的研究人員提出的自監督單目6D位姿估計,消除了對于標注數據的需求。研究人員首先在合成的RGB數據集上進行訓練,隨后利用大量非標記數據和神經渲染方法來改進訓練結果。

下圖展示了完整的訓練架構:


谷歌的研究人員針對深度估計領域提出了雙相機雙像素的估計方法,獲得了具有邊緣感知在遮擋情況下精度更高的深度結果。通過大垂直極限的雙相機和小水平基線的雙像素緩解了孔徑問題和遮擋問題。這篇文章使用了新穎的架構融合雙目立體視覺和雙像素立體視覺,克服了單純立體視覺在遮擋、重復紋理、邊緣誤差方面的劣勢。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













