Enviar pesquisa
Carregar
Chapter14.4
•
0 gostou
•
776 visualizações
Takuya Minagawa
Seguir
PRML読書会最終回 発表資料
Leia menos
Leia mais
Tecnologia
Vista de apresentação de diapositivos
Denunciar
Compartilhar
Vista de apresentação de diapositivos
Denunciar
Compartilhar
1 de 39
Baixar agora
Baixar para ler offline
Recomendados
050 確率と確率分布
050 確率と確率分布
t2tarumi
K040 確率分布とchi2分布
K040 確率分布とchi2分布
t2tarumi
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
hirokazutanaka
Prml sec6
Prml sec6
Keisuke OTAKI
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
hirokazutanaka
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
「樹木モデルとランダムフォレスト-機械学習による分類・予測-」-データマイニングセミナー
「樹木モデルとランダムフォレスト-機械学習による分類・予測-」-データマイニングセミナー
Koichi Hamada
Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」
Nagi Teramo
Recomendados
050 確率と確率分布
050 確率と確率分布
t2tarumi
K040 確率分布とchi2分布
K040 確率分布とchi2分布
t2tarumi
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
hirokazutanaka
Prml sec6
Prml sec6
Keisuke OTAKI
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
hirokazutanaka
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
「樹木モデルとランダムフォレスト-機械学習による分類・予測-」-データマイニングセミナー
「樹木モデルとランダムフォレスト-機械学習による分類・予測-」-データマイニングセミナー
Koichi Hamada
Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」
Nagi Teramo
Deformable Part Modelとその発展
Deformable Part Modelとその発展
Takao Yamanaka
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
Takao Yamanaka
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。
tak9029
2011/07/16 NagoyaCV_takmin
2011/07/16 NagoyaCV_takmin
Takuya Minagawa
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
非技術者でもわかる(?)コンピュータビジョン紹介資料
非技術者でもわかる(?)コンピュータビジョン紹介資料
Takuya Minagawa
Icp3.2 takmin
Icp3.2 takmin
Takuya Minagawa
卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張
masakazuyamanaka
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
PRML 第14章
PRML 第14章
Akira Miyazawa
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
koba cky
PRML 第4章
PRML 第4章
Akira Miyazawa
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
Koji Sekiguchi
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
Shogo Muramatsu
Meta analysis of microarray
Meta analysis of microarray
弘毅 露崎
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Takuya Minagawa
MobileNeRF
MobileNeRF
Takuya Minagawa
Mais conteúdo relacionado
Destaque
Deformable Part Modelとその発展
Deformable Part Modelとその発展
Takao Yamanaka
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
Takao Yamanaka
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。
tak9029
2011/07/16 NagoyaCV_takmin
2011/07/16 NagoyaCV_takmin
Takuya Minagawa
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
非技術者でもわかる(?)コンピュータビジョン紹介資料
非技術者でもわかる(?)コンピュータビジョン紹介資料
Takuya Minagawa
Icp3.2 takmin
Icp3.2 takmin
Takuya Minagawa
Destaque
(9)
Deformable Part Modelとその発展
Deformable Part Modelとその発展
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。
2011/07/16 NagoyaCV_takmin
2011/07/16 NagoyaCV_takmin
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
非技術者でもわかる(?)コンピュータビジョン紹介資料
非技術者でもわかる(?)コンピュータビジョン紹介資料
Icp3.2 takmin
Icp3.2 takmin
Semelhante a Chapter14.4
卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張
masakazuyamanaka
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
PRML 第14章
PRML 第14章
Akira Miyazawa
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
koba cky
PRML 第4章
PRML 第4章
Akira Miyazawa
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
Koji Sekiguchi
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
Shogo Muramatsu
Meta analysis of microarray
Meta analysis of microarray
弘毅 露崎
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
Semelhante a Chapter14.4
(11)
卒業論文発表スライド 分割統治法の拡張
卒業論文発表スライド 分割統治法の拡張
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
パターン認識 第10章 決定木
パターン認識 第10章 決定木
PRML 第14章
PRML 第14章
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
PRML 第4章
PRML 第4章
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
Meta analysis of microarray
Meta analysis of microarray
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Mais de Takuya Minagawa
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Takuya Minagawa
MobileNeRF
MobileNeRF
Takuya Minagawa
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
Takuya Minagawa
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
Takuya Minagawa
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
Takuya Minagawa
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
Takuya Minagawa
20210711 deepI2P
20210711 deepI2P
Takuya Minagawa
20201010 personreid
20201010 personreid
Takuya Minagawa
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
Takuya Minagawa
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
Takuya Minagawa
20200704 bsp net
20200704 bsp net
Takuya Minagawa
20190825 vins mono
20190825 vins mono
Takuya Minagawa
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
Takuya Minagawa
20190307 visualslam summary
20190307 visualslam summary
Takuya Minagawa
Visual slam
Visual slam
Takuya Minagawa
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
Takuya Minagawa
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
Takuya Minagawa
run Keras model on opencv
run Keras model on opencv
Takuya Minagawa
20181130 lidar object detection survey
20181130 lidar object detection survey
Takuya Minagawa
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
Takuya Minagawa
Mais de Takuya Minagawa
(20)
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
MobileNeRF
MobileNeRF
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
20210711 deepI2P
20210711 deepI2P
20201010 personreid
20201010 personreid
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
20200704 bsp net
20200704 bsp net
20190825 vins mono
20190825 vins mono
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
20190307 visualslam summary
20190307 visualslam summary
Visual slam
Visual slam
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
run Keras model on opencv
run Keras model on opencv
20181130 lidar object detection survey
20181130 lidar object detection survey
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
Último
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Hiroshi Tomioka
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
Último
(11)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
Chapter14.4
1.
PRML読書会最終回 発表資料
14.4 木構造モデル 2010/09/11 Presented by takmin
2.
宣伝 「コンピュータビジョン最先端ガイド」勉強会 http://sites.google.com/site/cvsaisentan/ 次回: 9/19(日)
テーマ:AdaBoost
3.
木構造モデル • 入力空間を多次元の矩形(cuboid)領域に区
分し,それぞれの領域に単純なモデルを配置 する。 A-Dに値(回帰問題の 場合)やラベル(分類問 題の場合)を当てはめ る
4.
Classification And Regression
Tree (CART)
5.
Classification And Regression
Tree (CART) 例: x1 0.3 x 0.5 2 0.2 0.6 0.1 0.6 0.8 0.1 0.2 0.8
6.
Classification And Regression
Tree (CART) 例: x1 0.3 x 0.5 2 0.2 0.6 0.1 0.6 0.8 0.1 0.2 0.8
7.
Classification And Regression
Tree (CART) 例: x1 0.3 x 0.5 2 0.2 0.6 0.1 0.6 0.8 0.1 0.2 0.8
8.
Classification And Regression
Tree (CART) 例: x1 0.3 x 0.5 2 0.2 0.6 0.1 0.6 0.8 0.1 0.2 0.8
9.
Classification And Regression
Tree (CART) 例: x1 0.3 x 0.5 2 0.2 0.6 0.1 0.6 0.8 0.1 0.2 0.8
10.
木の生成方法 単一の根ノードからGreedyに枝を増やしてく
訓練データ x2 x1
11.
木の生成方法 根ノードは,全てのデータ点を表す
x2 x1
12.
木の生成方法 誤差関数 Q (T
) が最小となる変数 x n ,閾値 i で空 間を分割する x1 1 x2 1 x1
13.
木の生成方法 葉ノードのデータ点の数が閾値以下になるまで分割 を繰り返す
x2 x1
14.
木の生成方法 構造を単純化するために,モデルの誤差と複雑さの 尺度 C(T )
を最小とするように枝刈りをしていく x2 x1
15.
木の生成方法 構造を単純化するために,モデルの誤差と複雑さの 尺度 C(T )
を最小とするように枝刈りをしていく x2 x1
16.
誤差関数 • 回帰問題の場合
葉領域: Rτ データ: xn t y 2 データ総数: Nτ 連続値ラベル: tn Q (T ) n x2 xn R (14.30) 1 y N t xn R n (14.29) 葉ノードτにおける代表ラベル x1
17.
演習14.10 • 葉ノード内の訓練集合の平均を代表値とする
ことが最も二乗誤差を最小とすることを示す。 E ( y ) (tn y ) 2 xn R E ( y ) 2(t n y ) 0 y xn R y t xn R xn R n 1 y N t xn R n (14.29)
18.
誤差関数 • 分類問題の場合
– 交差エントロピー誤差関数 データ: xn K 葉領域: Rτ 分類値ラベル: k Q (T ) pk ln pk x2 k 1 (14.32) – ジニ係数 K Q (T ) pk (1 pk ) k 1 (14.33) pk 葉ノードτにおいて,ラベルkを 持つデータの割合 x1
19.
枝刈り基準 • 誤差とモデルの複雑さのバランスを取る
T C (T ) Q (T ) T (14.31) 1 全葉ノードにお 葉ノード数 ける誤差の総和 λは交差確認法で決定
20.
演習14.11 A
B C1: 300 C1: 100 C1: 200 C1: 200 C2: 100 C2: 300 C2: 400 C2: 0 誤判別率: A: 200/800 B: 200/800 木AとBの誤判別率は等しい
21.
演習14.11 A
B C1: 300 C1: 100 C1: 200 C1: 200 C2: 100 C2: 300 C2: 400 C2: 0 p11 300 / 400 p21 100 / 400 p11 200 / 600 p21 200 / 200 p12 100 / 400 p22 300 / 400 p12 400 / 600 p22 0 / 200 交差エントロピー: T C (T ) Q (T ) T 1 ( p11 ln p11 p12 ln p12 p21 ln p21 p22 ln p22 ) 2
22.
演習14.11 A
B C1: 300 C1: 100 C1: 200 C1: 200 C2: 100 C2: 300 C2: 400 C2: 0 p11 300 / 400 p21 100 / 400 p11 200 / 600 p21 200 / 200 p12 100 / 400 p22 300 / 400 p12 400 / 600 p22 0 / 200 交差エントロピー: 3 2 C (T ) ln 3 4 ln 2 2 C (T ) ln 2 ln 3 2 2 3 Bの方が小さい
23.
演習14.11
A B C1: 300 C1: 100 C1: 200 C1: 200 C2: 100 C2: 300 C2: 400 C2: 0 p11 300 / 400 p21 100 / 400 p11 200 / 600 p21 200 / 200 p12 100 / 400 p22 300 / 400 p12 400 / 600 p22 0 / 200 ジニ係数: T C (T ) Q (T ) T 1 p11 (1 p11 ) p12 (1 p12 ) p21 (1 p21 ) p22 (1 p22 ) 2
24.
演習14.11 A
B C1: 300 C1: 100 C1: 200 C1: 200 C2: 100 C2: 300 C2: 400 C2: 0 p11 300 / 400 p21 100 / 400 p11 200 / 600 p21 200 / 200 p12 100 / 400 p22 300 / 400 p12 400 / 600 p22 0 / 200 ジニ係数: 3 4 C (T ) 2 C (T ) 2 4 9 Bの方が小さい
25.
以上!
26.
でも、最終回の発表が これだけだとちょっと寂 しかったので。。。
27.
余談 コンピュータビジョンで 使われる木構造モデル
28.
注: 回帰木でも分類木でも なく探索木の話です
29.
こんな時に探索木が使われます D. G. Lowe,
“Object Recognition from Local Scale-Invariant Features”, ICCV 1999
30.
特徴点同士のマッチングに使用
高次元データ同士 のマッチング 特徴点 プール 特徴量ベクトル 特徴点が大量にある場合、一つ一つの距離を計算していたら計 算量が膨大になる!
31.
こんなアルゴリズムが使われてます 近似最近傍探索のための決定木 • k-d木(+BBF) • k-means木 •
Randomized k-d木 • etc
32.
k-d木(+BBF) 木の作成: 最も分散の大きい方向(次 元)の中間値で空間を分 割していく。 探索: 木を根ノードから下って行 き、葉ノードまでたどり着 いたら、近い葉ノードから 逆に辿っていく。ある距離 以上の葉ノードに達したら その中で一番近い値を返 す(Best Bin First) J.
S. Beis, D. G. Lowe, “Shape Indexing Using Approximate Nearest-Neighbour Search in High-Dimensional Spaces”, CVPR 1997
33.
k-means木 (Vocabulary木) 木の作成: k-means法を使って、再帰 的にデータ空間をk分割し ていき、深さがLになるま で繰り返す。 探索: 木を根ノードから、k個の 代表値と比べて最も近い 領域を順に探索していく。 D. Nister,
H. Stewenius, “Scalable Recognition with a Vocabulary Tree”, CVPR 2006
34.
Randomized k-d木 木の作成: 異なるパラメータで複数 のk-d木を構築する。 (例:データを回転させる。 上位D個の分散の高い次 元からランダムに1つ分 割する方向を決める。 etc) 探索: 全てのk-d木の葉ノード及 び隣接ノードを近い順に ソートし、指定した個数の binを探索する。 C. Silpa-Anan,
R. Hartley, “Optimised KD-trees for fast image descriptor matching”, CVPR 2008
35.
FLANN • OpenCV 2.0から実装されている。 •
複数の探索木の中から最適なアルゴリズムとパラ メータを自動選択するための手法 • 検索時間、木の構築時間、メモリオーバーヘッドのそ れぞれに重みをつけたコスト関数を準備 • いくつかの手法とパラメータで実際に木の構築や検索 を試してみて、一番コスト関数の低かったものを元に Nelder-Mead法でパラメータを更に絞り込む。 M. Muja, D. G. Lowe, “Fast Approximate Nearest Neighbors with Automatic Algorithm Configuration”, VISAPP 2009
36.
まとめ • CARTは回帰と分類の両方に使える。 • CARTの構築は、誤差関数を最小にするように
データ空間を分割していって、後で枝刈りを する。 • コンピュータビジョンで使われている最近傍探 索のための決定木の紹介
37.
最後に
38.
PRML読書会の皆さん どうもありがとう!
39.
そして 復習レーンに続く。。。
Baixar agora