CVPR2020 Oral: 一張照片三維重建你的房間
總 結
我們提出了一種基于單張圖像的端到端室內場景重建方法。此方法對場景理解和網格重建進行聯合訓練,自動生成房間布局、攝像機姿態、物體包圍盒和三維網格,以完全恢復房間和室內物體的幾何信息。實驗表明,本文的聯合學習方法顯著地提高了每個子任務的性能,且每個階段的場景解析過程都對其他階段有著潛在的影響。這說明了對所有階段進行聯合訓練的必要性。本文方法的一個局限是,學習物體的三維網格形狀時,需要用稠密點云進行全監督訓練。而在真實場景中獲取較精確的稠密點云需要耗費大量的人力。為了解決這個問題,我們計劃在未來的工作中嘗試自監督或弱監督的學習方式。
關于團隊:香港中文大學(深圳)GAP實驗室
該工作由香港中文大學(深圳)GAP實驗室主導完成。GAP實驗室取名于Generation and Analysis of Pixels, Points and Polygons。基于深圳市大數據研究院與香港中文大學(深圳),該實驗室在韓曉光博士的帶領下,致力于探索和解決圖片、視頻及三維內容的生成與分析方面的難題,其主要研究方向涵蓋計算機視覺、計算機圖形學和機器學習。
該工作主要由伯恩茅斯大學博士生聶隱愚在GAP實驗室交換期間完成。團隊成員還包括香港中文大學(深圳)研究助理教授韓曉光博士、廈門大學副教授郭詩輝博士、香港中文大學(深圳)博士生鄭玉健及伯恩茅斯大學常建教授與張建軍教授。
References:
[1] Gkioxari, G., Malik, J. and Johnson, J., 2019. Mesh r-cnn. In Proceedings of the IEEE International Conference on Computer Vision (pp. 9785-9795).
[2] Pan, J., Han, X., Chen, W., Tang, J. and Jia, K., 2019. Deep Mesh Reconstruction from Single RGB Images via Topology Modification Networks. In Proceedings of the IEEE International Conference on Computer Vision (pp. 9964-9973).
[3] Hu, H., Gu, J., Zhang, Z., Dai, J. and Wei, Y., 2018. Relation networks for object detection. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3588-3597).
[4] Groueix, T., Fisher, M., Kim, V.G., Russell, B.C. and Aubry, M., 2018. A papier-m?ché approach to learning 3d surface generation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 216-224).
[5] Huang, S., Qi, S., Xiao, Y., Zhu, Y., Wu, Y.N. and Zhu, S.C., 2018. Cooperative holistic scene understanding: Unifying 3d object, layout, and camera pose estimation. In Advances in Neural Information Processing Systems (pp. 207-218).
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













