論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey
1. Semantic Mapping for Mobile
Robotics Tasks: A Survey
Ioannis Kostavelis, Antonios Gasteratos
Laboratory of Robotics and Automation,
Production and Management Engineering Dept.,
Democritus University of Thrace,
担当:谷口彰
Robotics and Autonomous Systems 66 (2015): 86-103.
被引用数(2016/1/12時点):11
1
2. Semantic Mapping for Mobile Robotics Tasks: A Survey
• Semantic Mappingとは
– ざっくり言うと、意味が付与された地図
– ロボットに意味理解を可能にする地図表現を獲得させる
• この領域が“キッチン”、この領域が“廊下”などの領域へのラベル付け
• どこに何の物体があるかといった物体の存在する位置の把握
• キッチンの隣にはダイニングがあるといった場所の隣接関係
など
– 場所概念も、言語が接地された地図と捉えると、Semantic Mappingの
ひとつ
2
3. Semantic Mapping for Mobile Robotics Tasks: A Survey
Semantic Mappingに関するサーベイ論文
• サーベイ論文とは
– ある研究分野の動向について調査し、整理した論文
– ある視点に立って関連するたくさんの論文についてまとめた論文
– 一般的な、提案手法があって、実験して、結果を出して、評価してい
るような論文ではない
• 論文紹介では
– Semantic Mappingに関するたくさんの研究の分類や概要を紹介
3
10. 1. Introduction
• この問題への解決法は、Semantic mappingによって提供される
– ロボットの周囲の環境やものの性質の説明
• Human-robot interaction (HRI) への架け橋として、ナビゲーション
やタスクプランニングの能力を増強することを目的とする
– 例えば、 [2], [3] and [4]の文献.
– 特に[4]では、自然言語を使用したHRIに注目してsemantic mappingに取
り組んでいる
10
[2] A. Pronobis, P. Jensfelt, Large-scale semantic mapping and reasoning with heterogeneous modalities, in: International Conference on Robotics
and Automation, IEEE, 2012, pp. 3515–3522.
[3] I. Kostavelis, A. Gasteratos, Learning spatially semantic representations for cognitive robot navigation, Robotics and Autonomous Systems 61
(12) (2013) 1460–1475.
[4] H. Zender, O. Mart´ınez Mozos, P. Jensfelt, G.-J. Kruijff, W. Burgard, Conceptual spatial representations for indoor mobile robots, Robotics and
Autonomous Systems 56 (6) (2008) 493–502.
23. 2. Antecedents
• Topometricの手法
– [24]
• 連続と離散の状態空間を両方使用し、ロボットの経路を再構築することを目的
– [25]
• リアルタイムに未知環境のtopometric mapの生成を可能にする
• メトリックな情報と、visual loop-closure(ループとじ込み)の発見を組み合わせる
• ここまでで開発された手法において、ロボットが特定の位置に移動することを可能にす
ることが示された
• しかし、典型的な環境で動作するために適した高いレベルの属性(意味情報)が欠落
している
• 現代のロボティックスの傾向は、人間の環境で動作するようにロボットを設計すること
– 認識能力に恵まれている地図の構築が必要である
23
[24] J.-L. Blanco, J.-A. Fern´andez-Madrigal, J. Gonzalez, A new approach for large-scale localization and mapping: Hybrid metric-topological
slam, in: International Conference on Robotics and Automation, IEEE, 2007, pp. 2061–2067.
[25] S. Bazeille, D. Filliat, Incremental topo-metric slam using vision and robot odometry, in: International Conference on Robotics and
Automation, IEEE, 2011, pp. 4067–4073.
24. 3. Trends in Semantic Map Building
3.1. Scale Based Categorization
• 多くのsematic mapはメトリックマップ上で作られる
– スケール(規模)に基づく分類が可能
• Indoor and outdoorの場合の両方で使用される
• large-scaleのアプローチは、メトリックマップを逐次的に構築する
– 同時に、高いレベルの特徴について注釈をつけた
• 例えば、物体の種類、場所のラベル、形状の解釈
• スケールに基づいた分類はFig.3に描かれている
– outdoorの手法に関して、ほとんどsingle-sceneのものがない
– the large scale indoorsのケースは数多くあることに注目する
24
26. 3.1.1. Indoors Single Scene Interpretation
• Nielsen et al. [26]
– ロボットと人間の間で同じ概念を共有するためのインターフェイスとし
てのsemantic mappingを構築
– a single-frame snapshotにより、現実世界の画像を取得
– メトリックマップ(占有格子地図)を拡張
• 興味のある場所や物体の意味や記号によって、人間に環境に対するよ
り詳細な情報を提供できる
– 地図は、3D空間を表すインターフェースを用いて表示される
• 現実と仮想のロボットの環境の要素の結合
• Fig.15
26[26] C. W. Nielsen, B. Ricks, M. A. Goodrich, D. Bruemmer, D. Few, M. Few, Snapshots for semantic maps, in: International Conference on
Systems, Man and Cybernetics, Vol. 3, IEEE, 2004, pp. 2853–2858.
28. 3.1.1. Indoors Single Scene Interpretation
• Kostavelis et al. [27]
– an SVM based memorization algorithm
• シーンのtraversabilityについて推論する
– indoorの被災後の環境において適切に動作することを証明した
– semantic inference
• パスプランニング(経路計画)アルゴリズムによって行われた
• Kostavelis et al. [28]
– ステレオビジョンを利用
– シーンのtraversabilityを分類することを目的
– indoor and outdoor環境で注目すべき性能を示した
28
traversability・・・通行可能性、踏破性能
[27] I. Kostavelis, A. Gasteratos, E. Boukas, L. Nalpantidis, Learning the terrain and planning a collision-free trajectory for indoor post-disaster
environments, in: International Symposium on Safety, Security, and Rescue Robotics, IEEE, 2012, pp. 1–6.
[28] I. Kostavelis, L. Nalpantidis, A. Gasteratos, Collision risk assessment for autonomous robots by offline traversability learning, Robotics and
Autonomous Systems 60 (11) (2012) 1367–1376.
29. 3.1.1. Indoors Single Scene Interpretation
• Rusu et al. [29]
– ステレオカメラとSICK laser scannerを利用
– キッチンで物体の識別をすることができる
– 把握した環境についての本質的な情報を獲得するために、個々の知
覚の入力が結合される
– ロボットは実証実験によって学習した
29
[29] R. B. Rusu, B. Gerkey, M. Beetz, Robots in the kitchen: Exploiting ubiquitous sensing and actuation, Robotics and
Autonomous Systems 56 (10) (2008) 844–856.
30. 3.1.1. Indoors Single Scene Interpretation
• Viswanathan et al. [30], [31]
– the visual place recognition の問題の解決策を提案
– the LabelMe dataset [32]を使用
• アノテ―ションされた(注釈つきの)画像のオンラインデータベース
– LabelMeでは、ユーザーは領域と適したラベルを選択することによって画像中の物体を
注釈付けすることができる
• Trevor et al. [33]
– single sceneのpoint cloudを分割する手法を提案
– RGB-D dataを使用
– 平面の分割ステップ:the point cloud data上でシーン中の主要な平面を分割する
– Fig. 4に示すように、テーブルの上に物体を見つけるために、結合された構成要素をラ
ベル付けしたマスク(表面)は、カラー画像に適用される
30
[30] P. Viswanathan, T. Southey, J. J. Little, A. Mackworth, Automated place classification using object detection, in: Canadian Conference on Computer
and Robot Vision, IEEE, 2010, pp. 324–330.
[31] P. Viswanathan, T. Southey, J. Little, A. Mackworth, Place classification using visual object categorization and global information, in: Canadian
Conference on Computer and Robot Vision, IEEE, 2011, pp. 1–7.
[33] A. Trevor, S. Gedikli, R. Rusu, H. Christensen, Efficient organized point cloud segmentation with connected components, in: International Conference
on Robotics and Automation, 3rd Workshop on Semantic Perception, Mapping, and Exploration, IEEE, 2013, p. In Press.
32. 3.1.1. Indoors Single Scene Interpretation
• Swadzba et al. [34]
– 個々のシーンを分類するために適した空間的な3D特徴ベクトルを導入した
– 事前にキャプチャされた画像フレーム上で動作する
– 3D空間特徴ベクトル
• Gist 特徴
• Mozos et al. [35]
– the Microsoft Kinect sensorを用いたvisual place categorization
– 深度画像とRGB画像をヒストグラムに変換し利用
– ヒストグラムの性能は、教師あり手法のSVMとランダムフォレストの両方で調べら
れた
• place recognitionのために適切なことがわかった
32
[34] A. Swadzba, S. Wachsmuth, A detailed analysis of a new 3d spatial feature vector for indoor scene classification,
Robotics and Autonomous Systems 62 (5) (2014) 646–662.
[35] O. M. Mozos, H. Mizutani, R. Kurazume, T. Hasegawa, Categorization of indoor places using the kinect sensor, Sensors 12
(5) (2012) 6695– 6711.
33. 3.1.1. Indoors Single Scene Interpretation
3.4.2. Inference by Multiple Cues
• P. Espinace et al. [36]
– ロボットが巡回している間に発見した物体のカテゴリラベルを推測す
るために、visual inputを利用
– generative probabilistic hierarchical model
• 存在する物体に従って、観測されたシーンを特徴づける
– 物体のカテゴリ分類
• 物体に低レベルの視覚特徴を結びつけるために使われた
– 検出精度は、3D range sensorを使うことによって増加した
33[36] P. Espinace, T. Kollar, N. Roy, A. Soto, Indoor scene recognition by a mobile robot through adaptive object detection,
Robotics and Autonomous Systems 61 (9) (2013) 932–947.
34. P. Espinace et al. [36]
34
↑
物体認識の情報に基づいた
場所カテゴリの認識
移動した軌跡と
各場所に付けたラベル→
35. 3.1.2. Indoors Large Scale Interpretation
3.4.1. Inference by Single Cue
Pixel-Wise Point Cloud Annotation
• N¨uchter et al. [37]
– シーンの360度キャプチャにSICK laser scannerを採用
– Point cloudの地図に意味的な情報にラベリング
• 3つのカテゴリを分割するために、隣接したpointの間の勾配を使用
– floor-, object- and ceiling-points
– 逐次的に構築したpoint cloudの一貫性は、semantic labelsを経由して推
定される
• 意味的な情報を使用して3Dレーザースキャンの一致を行った
– 一貫性のある地図を獲得するために、iterative closest point (ICP)のアル
ゴリズムを使用
• ICP:3D point cloud同士の位置合わせ手法
35
[37] A. N¨uchter, O. Wulf, K. Lingemann, J. Hertzberg, B. Wagner, H. Surmann, 3d mapping with semantic knowledge, in:
RoboCup 2005: Robot Soccer World Cup IX, Springer, 2006, pp. 335–346.
36. 3.1.2. Indoors Large Scale Interpretation
3.4.1. Inference by Single Cue
Pixel-Wise Point Cloud Annotation
• Rusu et al. [39], [41]
– キッチン環境の3D point cloud dataの意味的な物体アノテーション
– 台所の表面の大部分が平面であると仮定
• 3次元点群は、平面で分割される
– モデル化された物体は、キッチンサービスに使われる
– 家庭内のアシスタントロボットのための明確な意味をもつ
• 電化製品、食器棚、テーブル、引き出しなど
36
[39] R. B. Rusu, Z. C. Marton, N. Blodow, A. Holzbach, M. Beetz, Modelbased and learned semantic object labeling in 3d point cloud maps of
kitchen environments, in: International Conference on Intelligent Robots and Systems, IEEE, 2009, pp. 3601–3608.
[41] R. B. Rusu, Z. C. Marton, N. Blodow, M. Dolha, M. Beetz, Towards 3d point cloud based object maps for household environments, Robotics
and Autonomous Systems 56 (11) (2008) 927–941.
37. 3.1.2. Indoors Large Scale Interpretation
3.4.1. Inference by Single Cue
Pixel-Wise Point Cloud Annotation
• A. J. Trevor et al. [40]
– 3D point cloudの特徴ベースの地図
• 家具のcomputer aided desing (CAD)のモデルによって拡張された
• 家具の種類や位置を含む
• たとえば、テーブル、棚、カウンター
• 典型的な家具の平面領域は異なる色で示される
– Hokuyo UTM-30LX を使用
– Fig.5
37
[40] A. J. Trevor, J. G. Rogers, C. Nieto-Granda, H. I. Christensen, Tables, counters, and shelves: Semantic mapping of surfaces in 3d, in:
International Conference on Robotics and Automation, 3rd Workshop on Semantic Perception, Mapping, and Exploration, Georgia
Institute of Technology, 2010.
39. 3.1.2. Indoors Large Scale Interpretation
• I. Kostavelis et al. [3]
– Place categorizationの問題に取り組むことを目的とする
– 環境の一貫した3Dメトリックマップを生成するために、RGB-D sensorsを採
用
– Point cloudsは、連続的に取得したvisual odometryを使用して統合される
• ICPの位置合わせを基づく改良ステップ
– bag of featuresやサポートベクターマシン(SVM)を用いて、複数の異なる
場所を認識する
– 意味論的に注釈付けられたトポロジカルなグラフを生成する
– 幾何学的な、認知的な制約の両方ともを信頼する
39[3] I. Kostavelis, A. Gasteratos, Learning spatially semantic representations for cognitive robot navigation, Robotics and Autonomous
Systems 61 (12) (2013) 1460–1475.
41. 3.1.2. Indoors Large Scale Interpretation
• Civera et al. [45]
– extended Kalman filter (EKF) monocular(単眼) SLAMアルゴリズム
– シーンに意味的な注釈をつけるために物体認識を実行する
– 把握した環境のメトリックマップを生成する
• Mozos et al. [46]
– レーザースキャナーを搭載した2つの異なるロボットを使用
– CARMEN [47]を使用して異なるマップ上のレーザースキャンをシミュ
レートした
41
[45] J. Civera, D. G´alvez-L´opez, L. Riazuelo, J. D. Tard´os, J. Montiel, Towards semantic slam using a monocular camera, in:
International Conference on Intelligent Robots and Systems, IEEE, 2011, pp. 1277– 1284.
[46] O. Martinez Mozos, R. Triebel, P. Jensfelt, A. Rottmann, W. Burgard, Supervised semantic labeling of places using information
extracted from sensor data, Robotics and Autonomous Systems 55 (5) (2007) 391–402.
42. 3.1.2. Indoors Large Scale Interpretation
3.4.2. Inference by Multiple Cues
• Trevor et al. [42]
– 探索した環境のメトリックマップを実現するためにGTSAMを使用
• GTSAM:point cloudの位置合わせ手法のひとつ
– SLAMとsemantic mappingのために、さまざまな特徴の種類を採用
• 平面を含むランドマークとして
– 壁、テーブル、棚、ドアのような物体
– これらのランドマークは、人間によって必要に応じてラベル付される
42
[42] A. J. Trevor, J. G. Rogers, C. Nieto-Granda, H. I. Christensen, Featurebased mapping with grounded landmark and place labels,
in: Workshop on Grounding Human-Robot Dialog for Spatial Tasks, 2011
43. 3.1.2. Indoors Large Scale Interpretation
4.1. Human in the Loop
• Nieto-Granda et al. [56] ([42]の関連研究)
– 空間の自動的な認識と分類のための技術
• Gaussian modelの手法によってラベル付けされた空間的な領域に地図を分割する
– robot operating system (ROS) [57]に組み込まれたSLAMのマッピングモジュールを
採用
43
[56] C. Nieto-Granda, J. G. Rogers, A. J. Trevor, H. I. Christensen, Semantic map partitioning in indoor environments using regional
analysis, in: International Conference on Intelligent Robots and Systems, IEEE, 2010, pp. 1451–1456.
44. 3.1.2. Indoors Large Scale Interpretation
• Fasola and Matari´c [63]
– 人間との自然言語によるコミュニケーションを可能とする手法を提案
– semantic field model
• 空間的な前置詞の意味を表現する
44[63] J. Fasola, M. J. Matari´c, Using semantic fields to model dynamic spatial relations in a robot architecture for natural language
instruction of service robots, in: International Conference on Intelligent Robots and Systems, 2013.
45. 3.1.3. Outdoors Interpretation
• [66]
– 環境のlarge-scaleの3D地図生成
– 街の画像は、conditional random fields (CRF)を使って自動でラベル付けさ
れる
– 推定されたラベルは、3D volume(point cloud)を注釈付けるために統合
される
• [67]
– マルチクラスの教師ありGaussian process (GP)よる分類
– 3D point cloud data上でシーンのsemantic な解釈を目標とする
45
[66] S. Sengupta, E. Greveson, A. Shahrokni, P. H. S. Torr, Urban 3d semantic modelling using stereo vision, in: IEEE International
Conference on Robotics and Automation, IEEE, 2013, pp. 580–585.
[67] R. Paul, R. Triebel, D. Rus, P. Newman, Semantic categorization of outdoor scenes with uncertainty estimates using multi-
class Gaussian process classification, in: International Confer
46. 3.1.3. Outdoors Interpretation
• Steder et al. [68]
– 以前に見た環境の場所を確実に見つける(loop closure)ための3D距
離データに基づくアルゴリズム
– loop closureの発見と、環境の一貫したメトリック地図の構築のために
bag of words (BoW)を使用する
46[68] B. Steder, M. Ruhnke, S. Grzonka, W. Burgard, Place recognition in 3d scans using a combination of bag of words and point
feature based relative pose estimation, in: International Conference on Intelligent Robots and Systems, IEEE, 2011, pp. 1249–1255.
47. 3.1.3. Outdoors Interpretation
3.4.1. Inference by Single Cue
Scene Annotation
• Sengupta et al. [69]
– Outdoors環境の複数の街の画像からsemantic mapを生成する
– large-scale semantic mapを作り出すために多数の連続したフレーム
を統合する
– 街の画像のフレームを直接分割し、物体ごとにラベル付けする
• たとえば、cars, pavements, buildings etc
– 人間の概念に適応した13クラスを含む14.8kmのラベル付けされた
データセットを使用
– as shown in Fig. 7.
47
[69] S. Sengupta, P. Sturgess, P. H. Torr, et al., Automatic dense visual semantic mapping from street-level imagery, in: International
Conference on Intelligent Robots and Systems, IEEE, 2012, pp. 857–862.
49. 3.1.3. Outdoors Interpretation
• Singh and Kosecka [70]
– 街のシーンから道の交差点を認識するために分
類器を訓練した
– 街の画像の特定の領域をそれぞれのラベルにク
ラスタリング
• outdoor環境の街のシーンの長い距離の画像
– 把握した環境の配置(見取り図)を描く
49[70] G. Singh, J. Kosecka, Acquiring semantics induced topology in urban environments, in: International Conference on
Robotics and Automation, IEEE, 2012, pp. 3509–3514.
50. 3.1.3. Outdoors Interpretation
• [71]
– unmanned aerial vehicle (UAV)を使用
– online gradient boost algorithm
• 地面の観測から意味的な推定を行う
– video-domain adaptation(ビデオ領域の適応)
• オンボードカメラ上で動作する
• 文脈依存の検出器を使用
50
[71] B. L. Saux, M. Sanfourche, Rapid semantic mapping: Learn environment classifiers on the fly, in: International
Conference on Intelligent Robots and Systems, IEEE, 2013, pp. 3725–3730.
https://www.youtube.com/watch?v=OTxaLcouOHE
↑木のある場所を検出し
青い四角で囲っている
51. 3.1.3. Outdoors Interpretation
3.4.1. Inference by Single Cue
Scene Annotation
• Katsura et al. [72]
– 物体認識を使用したビジョンベースのoutdoorナビゲーション手法を
提案した
– このシステムの新規性
• 天気やセンサーの変化にロバスト
– 大きな汎化能力を達成するための手法を提案
• 学習した画像と目的の画像の変化を比較する
– 画像内のエンティティや物体を認識
• たとえば、sky, buildings, ground, etc.
51
[72] H. Katsura, J. Miura, M. Hild, Y. Shirai, A view-based outdoor navigation using object recognition robust to changes of
weather and seasons, in: International Conference on Intelligent Robots and Systems, Vol. 3, IEEE, 2003, pp. 2974–2979.
54. 3.2. Topological Maps
• Vasudevan et al. [54]
– 物体をベースとした空間の階層的で確率的な表現を提案
• SLAMによって生成された地図は、物体ラベルによって拡張される
• SIFT特徴を用いた物体認識
– 物体や場所のトポロジカルな表現(グラフ)を構築
– ステレオカメラを使う
• 物体をキャプチャするために
• メトリックマップ上の座標で獲得するために
54[54] S. Vasudevan, S. G¨achter, V. Nguyen, R. Siegwart, Cognitive maps for mobile robotsan object based approach,
Robotics and Autonomous Systems 55 (5) (2007) 359–371.
55. 3.2. Topological Maps
• Mozos and Burgard [78]
– 探索した場所のsemantic な情報にトポロジカル
マップを組み合わせた手法
– 教師あり学習アルゴリズムAdaboostが使われ
た
– semanticなクラスにメトリックマップを分類する
• 例えば、廊下、部屋
– その後で、確率的な分割ステップ
• フィルタ(ノイズ除去)する
– 分類エラー
– 幾何学とsemanticな知識を組み合わせることによ
るトポロジカルマップ結果
55
[78] O. M. Mozos, W. Burgard, Supervised learning of topological maps using semantic information
extracted from range data, in: International Conference on Intelligent Robots and Systems,, IEEE,
2006, pp. 2772–2777.
58. 3.3. Temporal Coherence
• 純粋な場所認識の手法[82]
– 時間的な属性を考慮したBOWを採用した
• Cadena et al. [83]
– 視覚的な時間的整合性を検出するシステム
• ロバストなメトリックマッピングを容易にする
• loop closure(ループ閉じこみ)の検出
58
[82] H. Guillaume, M. Dubois, F. Emmanuelle, P. Tarroux, et al., Temporal bag-of-words-a generative model for visual place
recognition using temporal integration, in: VISAPP-International Conference on Computer Vision Theory and Applications, 2011.
[83] C. Cadena, D. G´alvez-L´opez, J. D. Tard´os, J. Neira, Robust place recognition with stereo sequences, IEEE Transactions on
Robotics 28 (4) (2012) 871–885.
59. 3.3. Temporal Coherence
• [46]、[80]
– HMMを使用
– 探索した場所の間の時間的な近接性と、物理的遷移を記録することを目的
• [80]
– 時間的な近接性は、2つのフェーズがある
• (i)現在訪れた場所についてのシステムの推論
– 観測されたフレームの近傍を考慮する
• (ii)拡張されたナビゲーショングラフの物理的な制約
– 特定の認識した場所からのロボットの移動を考慮する
• Fig.9
– 時間の近接性の可視化
– 時間の近接行列
59
[80] I. Kostavelis, K. Charalampous, A. Gasteratos, Online spatiotemporalcoherent semantic maps for advanced robot navigation,
in: International Conference on Intelligent Robots and Systems, 5th Workshop on Planning, Perception and Navigation for
Intelligent Vehicles, IEEE, 2013.
URL http://ppniv13.irccyn.ec-nantes.fr/material/session3/paper8.pdf
63. 3.4.1. Inference by Single Cue
Scene Annotation
• Scene Annotation
– Place recognitionは単一の属性として使われる
• 意味的にメトリックマップを拡張する
• Pronobis et al. [8]
– Visual informationに基づくPlace recognitionのための特徴的なアプ
ローチを提案した
63
64. 3.4.1. Inference by Single Cue
Scene Annotation
• Wang et al. [64]
– 視覚的に場所を認識するためのシステムの開発に焦点をあてる
– 画像特徴と色情報を統合
• convex hull census transform
• SVMの教師あり学習
– Indoorのシナリオ
• 全方位カメラによってキャプチャされた画像を使用
• 環境のCADモデルを仮定
– 探索した場所を意味的に注釈付するためにロボットの軌跡を使用
64[64] M.-L. Wang, H.-Y. Lin, An extended-hct semantic description for visual place recognition, The International Journal of
Robotics Research 30 (11) (2011) 1403–1420.
65. 3.4.1. Inference by Single Cue
Scene Annotation
• D. Meger et al. [91]
– saliency attentional modelでサポートされている物体認識アルゴリズ
ムを開発
– 組み合わせ
• peripheral-foveal vision approach(周辺視野-中心視覚アプローチ)
• ステレオとメトリックマップからの構造を伴ったボトムアップな視覚的な顕
著性
• 計算されたマップ上の物体認識処理の結果(Fig.11)
65
[91] D. Meger, P.-E. Forss´en, K. Lai, S. Helmer, S. McCann, T. Southey, M. Baumann, J. J. Little, D. G. Lowe, Curious george: An
attentive semantic robot, Robotics and Autonomous Systems 56 (6) (2008) 503–511.
67. 3.4.1. Inference by Single Cue
Scene Annotation
• Ranganathan and Dellaert [9]
– メトリックマップに物体情報を形成するために物体認識を使用
• 表現の基本単位として物体を使用した
– 物体の3D位置を計算するためにステレオの深度データを使用
– Swendsen-Wang algorithm
• Markov chain Monte Carlo cluster method
• 画像特徴と物体の間の対応付けの問題を解決するために採用された
67
[9] A. Ranganathan, F. Dellaert, Semantic modeling of places using objects,
in: Proceedings of the 2007 Robotics: Science and Systems Conference,
Vol. 3, 2007, pp. 27–30.
68. 3.4.1. Inference by Single Cue
Scene Annotation
• Jebari et al. [92]
– シーン上で様々な障害物を認識するためにBoWを採用した
– 物体が認識された後、構築したsemantic mapに関連付ける
• Civera et al. [45]
– SURF特徴に基づく物体認識の戦略が採用された
– 認識された物体
• メトリックマップ上の測定された正確な位置に挿入された
• 次のフレーム情報を利用し、SLAMアルゴリズムによって洗練された
68
[92] I. Jebari, S. Bazeille, E. Battesti, H. Tekaya, M. Klein, A. Tapus, D. Filliat, C. Meyer, R. Benosman, E. Cizeron, et al., Multi-sensor semantic
mapping and exploration of indoor environments, in: Conference on Technologies for Practical Robot Applications, IEEE, 2011, pp. 151– 156.
[45] J. Civera, D. G´alvez-L´opez, L. Riazuelo, J. D. Tard´os, J. Montiel, Towards semantic slam using a monocular camera, in: International
Conference on Intelligent Robots and Systems, IEEE, 2011, pp. 1277– 1284.
69. 3.4.1. Inference by Single Cue
Pixel-Wise Point Cloud Annotation
• S. Sengupta et al.[66]
– 深度地図を利用
– オンラインの手法でグローバルな3D point cloudの中に融合される
• 任意の長い画像シーケンスに適応するために
– 街の画像は、自動でラベル付される
• CRF(conditional random field)を使用
• ステレオ画像を活用
• ラベルは、3D空間を注釈付けするために集められる
• Fig.12
69
[66] S. Sengupta, E. Greveson, A. Shahrokni, P. H. S. Torr, Urban 3d semantic modelling using stereo vision,
in: IEEE International Conference on Robotics and Automation, IEEE, 2013, pp. 580–585.
72. 3.4.2. Inference by Multiple Cues
• Anand et al. [97]
– 3D point clouds based on RGB-D dataのsemantic labelingと探索
• Kostavelis et al. [84]
– RGB-D dataを使用
– 場所認識のためのvisual vocabularyとhierarchical temporal networks
– 物体認識のためのattentional model(注意のモデル)
– 物体と対応する深度データを検出するために2D画像を使用した
• 形状情報の獲得
72
[97] A. Anand, H. S. Koppula, T. Joachims, A. Saxena, Contextually guided semantic labeling and search for three-dimensional point
clouds, The International Journal of Robotics Research 32 (1) (2013) 19–34.
[84] I. Kostavelis, A. Amanatiadis, A. Gasteratos, How do you help a robot to find a place? a supervised learning paradigm to
semantically infer about places, in: Hybrid Artificial Intelligent Systems, Springer, 2013, pp. 324–333.
73. 3.4.2. Inference by Multiple Cues
• C. Case et al. [55]
– SLAMにより生成した地図を利用
– テキストデータを伴うsemantic mapの構築
– オフィス環境でテキスト検出を行う
• 部屋番号、人の名前、部屋とオフィスと関係した他の記述
– ロボットは廊下の画像をキャプチャし、訓練されたテキスト検出器を
利用する
– 検出された記号は、メトリックマップの中の特定の姿勢に置かれた
• Fig. 13
73
[55] C. Case, B. Suresh, A. Coates, A. Y. Ng, Autonomous sign reading for semantic mapping, in: International Conference on
Robotics and Automation, IEEE, 2011, pp. 3297–3303.
75. 3.4.2. Inference by Multiple Cues
• Pronobis et al. [53]
– 環境上で物体の存在についての情報を入れ込んだsemantic maps
– トポロジー(接続形態)や空間の意味属性についての知識を伴う
• たとえば、部屋のサイズ、形状、全体的な様子
• [2], [48] and [79]
– シーンのさまざまな特徴についての推論
– 多数のセンサを使用
• 場所と物体の認識は、ビジョンを通して実行される
• 部屋の形状は、レーザースキャナーを使用して抽出される
– すべての保有している概念が結合される
75
[53] A. Pronobis, P. Jensfelt, Understanding the real world: Combining objects, appearance, geometry
and topology for semantic mapping.
76. 3.4.2. Inference by Multiple Cues
• A. Rituerto et al. [62]
– indoorの環境のためのsemantic-topological mapsを構築
• 確率的なモデルに基づいて、場所のラベリング結果を利用
– ウェアラブル反射屈折ビジョンシステムによって実現
• 全方位カメラ
76
[62] A. Rituerto, A. Murillo, J. Guerrero, Semantic labeling for indoor topological mapping using a wearable catadioptric
system, Robotics and Autonomous Systems 62 (5) (2014) 685–695.
78. 4. Applications
• How do you put into practice semantic maps?
• このセクションは、今までに報告された応用領域のレビュー
を目的とする
• どうやってsemantic mappingが応用されるのか
– 人間とロボットを含むいくつかの統合されたフレームワークを用いる
• semantic mapsに関わる知識表現
– タスクプランニング、パスプランニング、ナビゲーションに効果的に使
用できる
78
79. 4.1. Human in the Loop
• human-robot collaboration method(人間とロボットが協調す
る手法)[100]
– 人間によって示された物体の3D形状を抽出することを目的
• Trevor et al. [101]
– Semantic mapping のフレームワーク
• HRIのために利用される
– 人間の命令を理解可能なサービスロボットを目指す
– 地図にラベル付けすることによって、semantic mapの構造を補完する
79
[100] T. M. Bonanni, A. Pennisi, D. Bloisi, L. Iocchi, D. Nardi, Humanrobot collaboration for semantic labeling of the environment, in: International
Conference on Robotics and Automation, 3rd Workshop on Semantic Perception, Mapping, and Exploration, IEEE, 2013, p. In Press.
[101] A. J. B. Trevor, A. Cosgun, J. Kumar, H. I. Christensen, Interactive Map Labeling for Service Robots, in: Workshop on Active Semantic
Perception in IEEE/RSJ International Conference on Intelligent Robots and Systems, IEEE, 2012.
80. 4.1. Human in the Loop
• European project Viewfinder [104],[105]
– indoors and outdoors mapsのためのいくつかの手法は、解析され、実装
された
– たくさんのモジュールを使う
• ステレオビジョン
• レーザースキャン
• 嗅覚センサー
– プロジェクトの全体的な目標
• ロボットシステムの使用し、火災の影響や地面の安全性を検査すること
• 作業員を支援するために、データを収集できるようにすること
80
[104] J. Penders, Viewfinder:final activity report.
[105] Y. Baudoin, D. Doroftei, G. De Cubber, S. Berrabah, C. Pinzon, F. Warlet, J. Gancet, E. Motard, M. Ilzkovitz, L. Nalpantidis, et al.,
View-finder: robotics assistance to fire-fighting services and crisis management, in: International Workshop on Safety, Security & Rescue
Robotics, IEEE, 2009, pp. 1–6.
81. 4.1. Human in the Loop
• 構築した2D、3Dメトリックマップは、
– 被災者検出アルゴリズムの出力として
– 化学的なセンサーの結果に注釈付けされた
• Semantic mapは、基地局でhuman machine interface (HMI)を
経由して、救助隊に手に入る
– Fig.16
81
83. 4.2. Association with Knowledge
Representation Formalisms
• Lim et al. [108]
– オントロジーをベースとして統合された知識フレームワーク
– 低レベルのデータと高レベルの知識を合わせる
– Fig.17 (a)
• knowledge description and a knowledge association sections(知識の記述と知識の関係
性のセクション)
• knowledge description sectionは、metric and semantic mapsに埋め込まれた知識を備
える、
• knowledge associationは、論理的推論、ベイズ推定、ヒューリスティックを利用します、
– ほとんどのクエリ集合を解決するためのロボットを許可する。
– Fig.17 (b)
• オントロジーの概要とオントロジーの実例のレイヤーは、semantic mapに織り交ざる
– 特定の実験の環境のための
83
[108] G. H. Lim, I. H. Suh, H. Suh, Ontology-based unified robot knowledge for service robots in indoor environments,
Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans 41 (3) (2011) 492–509.
85. 4.2. Association with Knowledge
Representation Formalisms
• Bouguerra et al. [109]
– description logics(記述論理)
• 意味的なドメイン(領域)の情報を表現するための知識表現の形式
• 意味的知識は、物体と、それらの性質と他の物体とのそれらの関係
• Tenorth et al. [110]
– encyclopedic and common-sense knowledge (百科事典や一般的な知識)
• 公に利用できる知識基盤
• 認識した物体をリンクする
– オントロジーの構造上に組織化された知識
• ロボットに情報を与える
– 物体は何なのか、何のために使用されるのか、どのように使用するのかについて
85
[109] A. Bouguerra, L. Karlsson, A. Saffiotti, Semantic knowledge-based execution monitoring for mobile robots, in:
International Conference on Robotics and Automation, IEEE, 2007, pp. 3693–3698.
[110] M. Tenorth, L. Kunze, D. Jain, M. Beetz, Knowrob-map knowledgelinked semantic object maps, in: International
Conference on Humanoid Robots (Humanoids), IEEE, 2010, pp. 430–435.
86. 4.3. Planning and Navigation
• Semantic maps
– 移動ロボットにおける実用上の問題を解決するために使われる
• プランニングやナビゲーションを含む
• Borkowski et al. [114]
– レーザースキャナーの生データから意味的な特徴を抽出した
• 建物のインテリアのsemantic mapsを構築するため
• 物体の分類をするため
– 意味的なナビゲーションスキーム
• 意味的な情報は、建物のデジタルモデルから生成された
• ロボットナビゲーションを手助けすることができる
86
[114] A. Borkowski, B. Siemiatkowska, J. Szklarski, Towards semantic navigation in mobile robotics, in: Graph
transformations and model-driven engineering, Springer, 2010, pp. 719–748.
87. 4.3. Planning and Navigation
• Galindo et al. [115]
– ロボットのタスクプランニングのために意味知識が使われた
– 階層的な空間の情報と意味知識を統合
– タスクプランニングを達成するために提供する能力
• 意味をなさない情報を伴った現在の状態を結論付ける能力
• 特定の条件を維持するためのゴールを自動的に生成する能力
• プランニングを改善するための手段
87
[115] C. Galindo, J.-A. Fern´andez-Madrigal, J. Gonz´alez, A. Saffiotti, Robot task planning using semantic
maps, Robotics and Autonomous Systems 56 (11) (2008) 955–966.
88. 4.3. Planning and Navigation
• [116]
– 人間とロボットの対話から、高いレベルの概念を学習するためのアプ
ローチを提案
– 対話システムは、確率モデルを取り込む
• 物理的な環境で位置と音声を関係づける
• ロボットが事前に知らない知識を獲得するシステム
• 獲得した知識を蓄える知識ベース
– 全体のシステムは、訓練されていない人々によって評価された
88
[116] T. Kollar, V. Perera, D. Nardi, M. Veloso, Learning environmental
knowledge from task-based human-robot dialog, in: International Conference
on Robotics and Automation, IEEE, 2013, pp. 4304–4309.
95. 6. Open Issues and Questions
• 約10年前、社会的に相互作用するロボットのサーベイ[128]
– ロボットが、人間の要求を理解し、期待するような快適なインタラク
ションを可能にするための、重要な時期にくることが推測された
• 移動ロボットにおいて、semantic mappingを導入することに
よって、上記のことを可能にする道を進めることができた
• しかし、次のような、未解決の問題や質問は、依然として存
在しています
95
[128] T. Fong, I. Nourbakhsh, K. Dautenhahn, A survey of socially interactive robots, Robotics and
autonomous systems 42 (3) (2003) 143–166.
What are the minimal criteria for a map to be semantic?
意味的な地図のための最小限の基準は何?
97. 6. Open Issues and Questions
• 最小限の基準に加えて、場所や形状や物体の認識アルゴリズム
を使用することによって、いくつかのプラスな点が生じるだろう
– ロボットが周囲を理解するために役立つ
• これらは地図の中で適切に統合される
• 時間的なつながり( temporal connection )の具体的な表現は、探
索した環境中の場所を正確に識別する能力を拡張することができ
る[78]
• 多くのモダリティの使用と人間の発話は、様々な環境上で動作す
るロボットの十分頑健なsemantic mapの構築を可能とするだろう
[79]
97
[78] O. M. Mozos, W. Burgard, Supervised learning of topological maps using semantic information extracted from range data, in:
International Conference on Intelligent Robots and Systems,, IEEE, 2006, pp. 2772–2777.
[79] A. Pronobis, P. Jensfelt, Hierarchical multi-modal place categorization, in: 5th European Conference on Mobile Robots, 2011.
98. 6. Open Issues and Questions
• Semantic mapは複雑なシステムである
• このシステムの能力を評価するための唯一の評価指標は存在しない
• しかしながら、下位のモジュールは、別々に評価することができる
• 例えば、それぞれのメトリックマップの正確さ
– outdoorの場合
• GPSで測定されたgroundtruth(正解データ)によって評価できる
• visual odometryの軌跡を比較する[129]
– Indoorの場合
• 建物のCADモデルと生成したメトリックマップを直接比較する
• 能力を適切に定量化することができる
98
How do we evaluate semantic mapping methods?
どうやってsemantic mappingの手法を評価するのか?
[129] I. Kostavelis, E. Boukas, L. Nalpantidis, A. Gasteratos, Visual odometry for autonomous robot navigation through efficient
outlier rejection, in: IEEE International Conference on Imaging Systems and Techniques, Proceedings, IEEE, 2013, pp. 45–50.
99. 6. Open Issues and Questions
• 場所や物体の認識アルゴリズムは、ラベル付されたデータ
セット(see Sec. 5)によって評価できる
– Precision and recallまたはROC曲線によって評価される
• 認識の性能を検査するための他の一般的な技術
– Confusion matrices
– 典型的には、手法の平均と標準偏差
99
100. 6. Open Issues and Questions
• Semantic mappingのシステムは、place recognition手法に付け加
えられたものであるだろうことに言及することが重要だ
• Place recognition
– 不作為に(ランダムに)配置された画像の列から、場所を想起する(推定
する)ことにのみ焦点を当てる
• Semantic mapping
– 訪れた場所に関するさまざまな推定が、空間的な制約を受けて行われる
100
What differentiates semantic mapping methods from place recognition ones?
place recognitionの手法とsemantic mapping の手法の何が違うのか
101. 6. Open Issues and Questions
• A. Pronobis et. al [8],[48]
– [8]では、Place recognitionの問題に取り組む
– [48] では、place recognition能力は、移動ロボットに統合された
• indoor環境で、semanticなカテゴリーを認識し、場所を識別する
• semantic mappingでは、ロボットの移動をplace recognitionのモジュールのた
めに役立たせることができる
• システムは、現在の位置から他へ移動しながら、学習された場所のインスタ
ンス(実例)を正確に認識できるべきだ
• Semantic mappingは、探索した環境の動的な変化に対処するためにロバスト
な機械学習の技術要素の使用を要求する
101
[8] A. Pronobis, B. Caputo, P. Jensfelt, H. I. Christensen, A discriminative approach to robust visual place recognition, in:
International Conference on Intelligent Robots and Systems, IEEE, 2006, pp. 3829–3836.
[48] A. Pronobis, O. M. Mozos, B. Caputo, P. Jensfelt, Multi-modal semantic place classification, The International Journal of
Robotics Research 29 (2-3) (2010) 298–320.
103. 6. Open Issues and Questions
• Semantic mapsは、初め、家庭内ロボットによって使われるために考案された
– ロボットコンパニオンや移動支援ロボット、HRIを手助けするための方法
• 他にも、たくさんの応用が考えられる
– 無人搬送車(AGV)などは、工場や倉庫で労働者と協力しながら効率的に働く
– 様々なセンサ(例えば、嗅覚、化学、CO2など)を用いた地図は、探索救助業務に使用
できる
– Outdoor環境では、環境の意味表現は、自動運転車が乗客をスムーズに運搬するた
めに必要である(たとえば、「ステーキハウスを左に曲がる」)
– 農業用ロボットは。 農民からの「果樹園を通過して、ぶどう畑を掘る」という命令に対応
する
103
What are the potential areas of application of semantic maps?
semantic mapの応用の可能性のある領域は何?
104. 6. Open Issues and Questions
• オントロジーやその他の知識表現は、知覚できていないときでさえ、ロボットの周囲の
記述を与えることができる [108]、[115]
• Semantic map
– 地図上にさまざまなインスタンスのリッチな情報表現を可能にする
– 通常、物体、場所、そのほかのクラスを認識する
• したがって、効率的なsemantic mappingは、個々の最新の空間的属性を保持する手
段を提供することができる
• Ground level objects(地表面の物体)は、ロボットと人間の両方が知っておくべき環境
の連続的な変化を受けている
104
How semantic maps aid knowledge representation and vice versa?
どのようにセマンティックマップは知識表現を助けるのか?
[108] G. H. Lim, I. H. Suh, H. Suh, Ontology-based unified robot knowledge for service robots in indoor environments, Transactions on
Systems, Man and Cybernetics, Part A: Systems and Humans 41 (3) (2011) 492–509.
[115] C. Galindo, J.-A. Fern´andez-Madrigal, J. Gonz´alez, A. Saffiotti, Robot task planning using semantic maps, Robotics and
Autonomous Systems 56 (11) (2008) 955–966.
105. 6. Open Issues and Questions
• 今後の研究で努力すべき課題
– 大規模なoutddoor環境でのsemantic mapingの構築
• 街や都市
• しかし、上記の試みは、すべてのモデルを訓練するための大量のデータが必要となる
• この問題に対する1つの解決策
– クラウド技術
• ウェブに接続することで、世界中の異なる場所にいるロボットと人間の間での知識交換を容易にする
• これが現実となるためには、semantic mappingはパズルの1ピースにすぎない。
– クラウドロボティクス、ソーシャルメディア、IoT、ソーシャルロボティクスなどを含む技術を、統合する
必要がある
105
What are the research challenges and the future trends?
研究のチャレンジと未来の傾向は何?