Enviar pesquisa
Carregar
はじめてのパターン認識4章後編
•
Transferir como PPTX, PDF
•
9 gostaram
•
6,224 visualizações
Tanaka Hidenori
Seguir
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 29
Baixar agora
Recomendados
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
はじパタ6章前半
はじパタ6章前半
T T
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
はじパタ11章 後半
はじパタ11章 後半
Atsushi Hayakawa
Recomendados
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
はじパタ6章前半
はじパタ6章前半
T T
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
はじパタ11章 後半
はじパタ11章 後半
Atsushi Hayakawa
パーセプトロン型学習規則
パーセプトロン型学習規則
Shuhei Sowa
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
Shunichi Sekiguchi
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
線形識別モデル
線形識別モデル
貴之 八木
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato
PRML 第4章
PRML 第4章
Akira Miyazawa
機械学習と主成分分析
機械学習と主成分分析
Katsuhiro Morishita
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
Considerations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items Task
Toshihiro Kamishima
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
Mais conteúdo relacionado
Mais procurados
パーセプトロン型学習規則
パーセプトロン型学習規則
Shuhei Sowa
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
Shunichi Sekiguchi
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
線形識別モデル
線形識別モデル
貴之 八木
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato
PRML 第4章
PRML 第4章
Akira Miyazawa
機械学習と主成分分析
機械学習と主成分分析
Katsuhiro Morishita
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
Mais procurados
(20)
パーセプトロン型学習規則
パーセプトロン型学習規則
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
はじパタ8章 svm
はじパタ8章 svm
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
線形識別モデル
線形識別モデル
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
PRML 第4章
PRML 第4章
機械学習と主成分分析
機械学習と主成分分析
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
Destaque
Considerations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items Task
Toshihiro Kamishima
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
Mika Yoshimura
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
irrrrr
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
Destaque
(7)
Considerations on Recommendation Independence for a Find-Good-Items Task
Considerations on Recommendation Independence for a Find-Good-Items Task
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
機械学習とその理論 (情報オリンピック2015春合宿講義資料)
EMアルゴリズム
EMアルゴリズム
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
はじめてのパターン認識4章後編
1.
はじめてのパターン認識 #4 確率モデルと識別関数(後編)
2.
はじめに • 田中 秀典といいます •
分析力をコアとするマーケティングソリューションカンパニーのコアじゃない部分 を担当 • あのねー、、すごく難しくてねー、、薄い内容しかねー、、しゃべれない、、(子 供のころの貴乃花) • はじパタをいきなり勉強する人の理解度を測るモデルケースと思っていただけれ ば、、 • 間違っているところがありましたら、指摘してください
3.
アジェンダ • 確率モデル • 正規分布 •
正規分布から導かれる識別関数 • 最尤推定
4.
確率モデルとは • データを分析する理由 過去の総括ではなく、未来の意思決定 そのためにはデータから何らかの(確率的)規則性を見つける必要がある その規則性が確率モデル 意思決定を自動化するのが目標
5.
確率モデルの種類 • ノンパラメトリック ・・
仮説を設定しない。傾向を結果で示唆するが、明確で はない 一切の前提が必要ない 例: ヒストグラム法, K最近傍法(5章),カーネル密度推定=パルツェン密度推定 • パラメトリック ・・ 仮説を設定する。はまれば強力 前提条件 • 等分散性 : F検定、 ルベーン検定、 バートレット検定 • 正規分布 : t検定、 ウェルチのt検定(等分散でない場合) • 標本サイズがある程度大きい 例: 離散的 - 二項分布、多項分布、ポアゾン分布 連続的 - 一様分布、指数分布、正規分布
6.
正規分布は確率モデルのKING • 汎用的 • そもそも多くのデータが正規分布 •
正規分布からいろいろ解析結果をだせる • データを加工(標本平均をとる)すれば、正規分布になる = 中心極限定理 • 扱いやすい • パラメータは平均値と共分散のみ • 正規分布を線形変換しても正規分布 • 正規分布の線形和も正規分布 (再生性) • 正規分布の周辺分布も正規分布 • 無相関⇔独立
7.
• ゲプロー • げぷろー •
イチロー • GEPURO- • @gepuro- Webにおちてたパワポを拝借、、勝手にSpecial Thanks.. こっからが全然分からないぜ、、
8.
正規分布関数 •
9.
正規分布関数 •
10.
正規分布から導かれる識別関数 •
11.
正規分布から導かれる識別関数 •
12.
正規分布から導かれる識別関数 •
13.
(4.32) •
14.
(4.32) •
15.
(4.32) •
16.
(4.32) • 二次曲面
17.
識別二次曲面のイメージ 分布の大きさや向きはバラバラであり 識別関数は二次形式になる
18.
線形識別関数(1次式) • 線形識別関数
19.
線形識別関数のイメージ
20.
正規分布から導かれる識別関数(まとめ) • 基本形
21.
• 線形識別関数
22.
• 事前確率を重みとした共分散行列
23.
なぜ簡単にするのか? • モデルが複雑なほど良い汎化能力が得られるわけではない
24.
確率モデルパラメータの最尤推定 •
25.
確率モデルパラメータの最尤推定 •
26.
1 変数の正規分布の場合 •
27.
1 変数の正規分布の場合 • 対数をとる
28.
1 変数の正規分布の場合 •
29.
1 変数の正規分布の場合 •
Baixar agora