論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised Learning from Monocular Videos (AAAI 2019)
1. 1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Depth Prediction Without the Sensors: Leveraging Structure for
Unsupervised Learning from MonocularVideos (AAAI 2019)
Norihisa Kobayashi
2. 書誌情報
2
Depth Prediction Without the Sensors:
Leveraging Structure for Unsupervised Learning from Monocular Videos
(AAAI 2019)(https://arxiv.org/abs/1811.06152)
タイトル:
著者: Vincent Casser, Soeren Pirk, Reza Mahjourian, Anelia Angelova
• センサーを利用せずに、単眼のビデオカメラの入力からシーンの深度を予測する
• カメラのエゴモーション(カメラ自身の速度や動き)を教師なし学習で推定する
• オブジェクトの動きを含むシーンにおける深度予測及び、エゴモーション推定でSOTA
• 屋外での訓練モデルを屋内ナビゲーションのためにドメイン転送も可能
概要:
GitHub: https://github.com/tensorflow/models/tree/master/research/struct2depth
その他:
https://sites.google.com/view/struct2depth
Google
特設ページ
:
6. 2. 先行研究
6
Unsupervised Learning of Depth and Ego-Motion from Video[Zhou, et al.(2017)]
• 深度とエゴモーション推定のための教師なし学習フレームワークを提案
• エンドツーエンドで、訓練のために単眼ビデオシーケンスのみを必要とする
17. Appendix
参考文献
17
• Wang, Z.; Bovik, A. C.; Sheikh, H. R.; and Simoncelli, E. P. 2004. Image quality assessment: from error
visibility to structural similarity. Transactions on Image Processing.
• Wang, C.; Buenaposada, J. M.; Zhu, R.; and Lucey, S. 2018. Learning depth from monocular videos using
direct methods. CVPR.
• Zhan, H.; Garg, R.; Weerasekera, C.; Li, K.; Agarwal, H.; and Reid, I. 2018. Unsupervised learning of
monocular depth estimation and visual odometry with deep feature reconstruction. CVPR.
• Zhou, T.; Brown, M.; Snavely, N.; and Lowe, D. 2017. Unsupervised learning of depth and ego-motion from
video. CVPR.
18. Appendix
補足
18
• Unsupervised Learning of Depth and Ego-Motion from Video[Zhou, et al.(2017)] を引用
• ターゲットビュー内の各点𝑝𝑡について、まず予測深度とカメラの姿勢に基づいてソースビューに投影し、バイリニア補間を
使用して位置𝑝𝑡におけるワープ画像 𝐼𝑠の値を取得する