SlideShare uma empresa Scribd logo
1 de 20
機械学習
-chapter 7
最小二乗学習に基づく分類 -

Ryo HIGASHIAGWA
@biwakonbu
前回課題
●

課題内容 : リッジ回帰

●

ガウスカーネル法の適用を選択
リッジ回帰ってなんだっけ ?

雑音に強くした最小二乗学習
前回の課題

‖ x−c‖
K (x ,c)=exp(
)
2
2h
2
前回の課題

repmat → 行列の繰り返し配置

...

m

や

.
.
.

n
前回課題

phi → ガウスカーネルの値
y→

訓練標本

b→

単位行列のサイズ
前回課題
前回課題
最小二乗学習に基づく分類
●

最小二乗分類
●

2 クラス分類問題

●

+1 と -1 の二値での判定

●

0 にはならない物とする

+ 1 f θ ( x )> 0
^
y
^ =sign ( f θ ( x ))={ 0 f ^ ( x )=0 }
^
θ
−1 f θ ( x )<0
^
最小二乗学習に基づく分類

+1

sign(f θ (x))
f θ (x)

x1

x2

xn

−1
分類問題での損失
●

クラス分けでは二値のみで関数の値は細かく見ない

●

本質的には 0/1 の判断のみ

●

+1/-1 と 0 が挟まるより自然

     0/1 損失
0/1 損失

1
(1−sign( f θ ( x) y))
2
0 と 1 にしかならない式
sign(x) は符号化関数なので +1/-1 しか無い
0/1 損失最小化学習
n

1
min ∑ (1− sign ( f θ ( x i ) y i ))
2 i=1
θ

2

n

解の組み合わせが  存在する為
直接解く事が困難
また、傾きが無いため θ の最適解を一意に取れない
代理損失
●

0/1 では考え方は自然だが不便

●

代理損失 ( 代わりの損失 ) を使用する

●

結局 l2 損失を用いる ( 今回の話 )
最小二乗学習による分類
●

男女比 1 : 1 のデータ群から男女の分類を行った

●

データの種類
●

身長

●

体重

●

性別

ガウスカーネルモデルに対する l2 制約付き最小二乗化学習
分類

y → +1/-1 の分類用標本、入力は 3 種類
b → a*x+b の b を出す為に使用 ( バイアス値 )
分類

T
k

yk ( x)=w x +w k 0

y1 ( x)= y2 ( x)

クラスは二つの為、
k に 1,2 が入る
分類

w 10 +w 11 x1 +w 12 x 2=w 20 +w 21 x 1+w 22 x2

w 11−w 21
w 10−w 20
x 2=−
x1−
w 12−w 22
w 12−w 22

R の場合
Wi は
11,12,13
21,22,23
となる
分類
男

女
分類まとめ
●

ニクラス分類は出来た

●

傾き等の最適解を学習により適切に出せなかった

●

フィッシャーの線形判別を用いる事で出来るらしい

●

関係無いけどガウスカーネル段々覚えてきました
課題
●

今回同様のクラス分けを使い、 Python でインタラク
ティブなクラス分けを行うプログラムを作成する

●

男女のクラス分けの場合、あらかじめ学習させておき、
身長体重を入力するとクラスを提示する等

●

男女データは github にあげておくので使用する場合は取
得して使ってください

Mais conteúdo relacionado

Mais procurados

低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論
ryotat
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
 
整数格子点上の劣モジュラ被覆に対する高速アルゴリズム
整数格子点上の劣モジュラ被覆に対する高速アルゴリズム整数格子点上の劣モジュラ被覆に対する高速アルゴリズム
整数格子点上の劣モジュラ被覆に対する高速アルゴリズム
Tasuku Soma
 
Aishima140714
Aishima140714Aishima140714
Aishima140714
nwpmq516
 

Mais procurados (17)

パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
Prml07
Prml07Prml07
Prml07
 
Jokyo20130218
Jokyo20130218Jokyo20130218
Jokyo20130218
 
低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
整数格子点上の劣モジュラ被覆に対する高速アルゴリズム
整数格子点上の劣モジュラ被覆に対する高速アルゴリズム整数格子点上の劣モジュラ被覆に対する高速アルゴリズム
整数格子点上の劣モジュラ被覆に対する高速アルゴリズム
 
Prml sec6
Prml sec6Prml sec6
Prml sec6
 
Integrating different data types by regularized unsupervised multiple kernel...
Integrating different data types by regularized  unsupervised multiple kernel...Integrating different data types by regularized  unsupervised multiple kernel...
Integrating different data types by regularized unsupervised multiple kernel...
 
Aishima140714
Aishima140714Aishima140714
Aishima140714
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)
 

Destaque

5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet
Nagi Teramo
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
Eric Sartre
 
MCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナーMCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナー
Takashi Yamane
 

Destaque (12)

Ml ch10
Ml ch10Ml ch10
Ml ch10
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic Regression
 
Data assim r
Data assim rData assim r
Data assim r
 
5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet
 
機械の代わりに人間が学習入門
機械の代わりに人間が学習入門機械の代わりに人間が学習入門
機械の代わりに人間が学習入門
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
MCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナーMCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナー
 
Logistic Regression Analysis
Logistic Regression AnalysisLogistic Regression Analysis
Logistic Regression Analysis
 
状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較
 
カルマンフィルタについて
カルマンフィルタについてカルマンフィルタについて
カルマンフィルタについて
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 

Semelhante a Ml ch7

Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
nwpmq516
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
nwpmq516
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
Preferred Networks
 

Semelhante a Ml ch7 (20)

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
 
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
 
自然言語処理のための機械学習入門1章
自然言語処理のための機械学習入門1章自然言語処理のための機械学習入門1章
自然言語処理のための機械学習入門1章
 
第9回スキル養成講座講義資料
第9回スキル養成講座講義資料第9回スキル養成講座講義資料
第9回スキル養成講座講義資料
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
 
Sec15 dynamic programming
Sec15 dynamic programmingSec15 dynamic programming
Sec15 dynamic programming
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
 
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
SVM
SVMSVM
SVM
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシン
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 

Mais de Ryo Higashigawa

Mais de Ryo Higashigawa (9)

TypeScript で型を上手く使う試み.pdf
TypeScript で型を上手く使う試み.pdfTypeScript で型を上手く使う試み.pdf
TypeScript で型を上手く使う試み.pdf
 
新しいWEBフロントの開拓.pptx
新しいWEBフロントの開拓.pptx新しいWEBフロントの開拓.pptx
新しいWEBフロントの開拓.pptx
 
AWS を始める時に気をつけるべき課金周りの仕組みと設定.pptx
AWS を始める時に気をつけるべき課金周りの仕組みと設定.pptxAWS を始める時に気をつけるべき課金周りの仕組みと設定.pptx
AWS を始める時に気をつけるべき課金周りの仕組みと設定.pptx
 
``完璧に理解した``WEB の裏側の仕組み.pptx
``完璧に理解した``WEB の裏側の仕組み.pptx``完璧に理解した``WEB の裏側の仕組み.pptx
``完璧に理解した``WEB の裏側の仕組み.pptx
 
フロントエンド技術の変遷
フロントエンド技術の変遷フロントエンド技術の変遷
フロントエンド技術の変遷
 
AWS でサーバーレスを使っている話.pptx
AWS でサーバーレスを使っている話.pptxAWS でサーバーレスを使っている話.pptx
AWS でサーバーレスを使っている話.pptx
 
これからはじめるための JavaScript 開発環境
これからはじめるための JavaScript 開発環境これからはじめるための JavaScript 開発環境
これからはじめるための JavaScript 開発環境
 
Ml ch3
Ml ch3Ml ch3
Ml ch3
 
Ml ch2
Ml ch2Ml ch2
Ml ch2
 

Ml ch7