2D語義分割方法有很多種,大多是將點雲深度圖和圖像進行特徵提取,然後利用圖像與深度的2D語義分割和深度完成,如《Sparse and dense data with cnns : Depth completion and semantic segmentation》。 當然也有不同的方法進行特徵提取和融合,如《Self-supervised model adaptation for multi modal semantic segmentation》採用了不同深度的多階段特徵級融合,以促進語義分割。 《Lidarcamera fusion for road detection using fully convolutional neural networks》則是利用上採樣的深度圖像和圖像進行2D語義分割。 《Pedestrian detection combining rgb and dense lidar data》則是對rgb和稠密點雲進行上採樣並分別進行CNN特徵提取,在最終的捲積層融合兩個特徵圖雙效犀利士雙效犀利士藥局雙效犀利士香港雙效犀利士副作用雙效犀利士真偽
另外,跟蹤和三維重建也可以同時進行。 《Track to reconstruct and reconstruct to track》就是這麼一種方法,其利用三維重建來進行跟蹤,使跟蹤對遮擋有很好的魯棒性。 當然,MOTSFusion也可以是模型對感測器不內參不敏感,Calibnet採用幾何自監督的方法,將點雲與單目圖像以及相機外參矩陣K輸入到網路中,然後實現3D點雲與2D圖像之間6自由度剛體轉換,有效的降低了校準的工作量。 但基於深度學習的校驗方法,計算量比較大,計算資源消耗較多。