花了一些時間蒐集資料,終於整理出到目前為止 Monocular Depth Estimation 與 Stereo Depth Estimation 間接的 state-of-the-art 比較結果。
Stereo Depth Estimation
許多人常用的是 KITTI 2015 stereo evaluation(https://www.cvlibs.net/datasets/kitti/eval_scene_flow.php?benchmark=stereo)。使用的基準為 D1-background、D1-foreground、D1-all,也就是 disparity 在第一張圖片的百分比誤差。
- 傳統電腦視覺方法的 SGM(前文) 為 5.06%、13%、6.38%
- 2022 年的 sota ACVNet 為 1.37%、3.07%、1.65%
- 2024 年的 sota OpenStereo 為 1.28%、2.26%、1.44%
我花了一點時間好不容易找到有一個方法 SUW-Stereo 同時提供了 stereo 與 monocular depth estimation 的結果。在 stereo depth estimation 中其結果為 1.47%、3.45%、1.80%。
Monocular Depth Estimation
許多人常用的是 KITTI Eigen split dataset,Paper with code(https://paperswithcode.com/sota/monocular-depth-estimation-on-kitti-eigen)網站上有許多方法的結果比較。使用的基準為 RMSE、sqRel、以及 Delta < 1.25(越高越好)。
- SUW Stereo 為 1.915、0.221、0.957
- 前文介紹的 Depth Anything 為 1.896、0.121、0.982
因此結合以上兩種結果,大概可以得出結論 ─ monocular depth estimation 與 stereo depth estimation 就統計上的結果真的已經相當接近了!
沒有留言:
張貼留言