SlideShare uma empresa Scribd logo
1 de 30
一般化線形モデル-GLM
2018/12/10
東京工業大学 工学院 経営工学系 3年
松井諒生
1
2
一般線形モデル
正規分布とは
• 𝑝 𝑦 𝜇, 𝜎 =
1
2𝜋𝜎
exp(−
𝑦−𝜇 2
𝜎2 )
(平均μ標準偏差σの時、yとなる確率)
• データが連続値
• yの下限、上限ともにない。
3
一般線形モデル
一般線形モデルとは
• 目的変数yは正規分布に従う
• 説明変数群xによらず、yの分布の標準偏差σが一定
• 説明変数群xによって、yの分布のμが変化する
と仮定したもとで、あるxが決められたときのパラメー
タμおよび目的変数yを予測する回帰モデル。
4
一般線形モデル 導出 ~単回帰~
5
一般線形モデル 導出 ~単回帰~
𝑝𝑖 𝑦𝑖 𝜇, 𝜎 =
1
2𝜋𝜎
exp(−
𝑦𝑖 − 𝜇 2
𝜎2
) ⋯ ⋯ (1)
𝐿 𝛼, 𝛽 =
𝑖
𝑛
1
2𝜋𝜎
exp(−
𝑦𝑖 − 𝜇 2
𝜎2
) ⋯ ⋯ (2)
log 𝐿 𝛼, 𝛽 = 𝑛 log
1
2𝜋𝜎
−
𝑖
𝑛
𝑦𝑖 − 𝛼 + 𝛽𝑥𝑖
2
𝜎2
𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒
𝑖
𝑛
𝑦𝑖 − (𝛼 + 𝛽𝑥𝑖) 2
⋯ ⋯ (3)
実現値𝑦𝑖
が発生する確率𝑝𝑖
𝜇 = 𝛼 + 𝛽𝑥𝑖として
尤度関数Lを出す。
最小化項を得る
計算しやすいよう
に対数をとる
6
一般線形モデル 導出 ~単回帰~
𝑦1
𝑦2
⋮
𝑦𝑛
=
1 𝑥1
1 𝑥2
⋮
1 𝑥 𝑛
𝛼
𝛽 +
𝜀1
𝜀2
⋮
𝜀 𝑛
⋯ ⋯ (1′)
𝜀1
𝜀2
⋮
𝜀 𝑛
=
𝑦1
𝑦2
⋮
𝑦𝑛
−
1 𝑥1
1 𝑥2
⋮
1 𝑥 𝑛
𝛼
𝛽 ⋯ ⋯ (2′)
𝐸 =
𝜀1
𝜀2
⋮
𝜀 𝑛
=
𝑖
𝑛
𝑦𝑖 − (𝛼 + 𝛽𝑥𝑖) 2 ⋯ ⋯ (3′)
もう一方の方法。
まず、モデル式に
当てはめる。
誤差を左辺に移項
最小化項を得る
(最尤推定と同じ
結果) 7
𝜕𝐸
𝜕𝛼
= −2
𝑖
𝑛
𝑦𝑖 − 𝛼 + 𝛽𝑥𝑖 = 0 ⋯ ⋯ (4)
𝛼 = 𝑦 − 𝛽 𝑥 ⋯ ⋯ (6)
一般線形モデル 導出 ~単回帰~
αの一階条件を得る
(3)のEをαで偏微分
(4)をx, yの平均を
𝑥, 𝑦として整理する
𝑛 𝑦 − 𝑛 𝛼 + 𝛽 𝑥 = 0
8
𝜕𝐸
𝜕𝛽
= −2
𝑖
𝑛
𝑥𝑖 𝑦𝑖 − 𝛼 + 𝛽𝑥𝑖 = 0 ⋯ ⋯ (7)
𝑖
𝑛
𝑥𝑖 𝑦𝑖 − 𝑦 − 𝛽 𝑥 + 𝛽𝑥𝑖 = 0 ⋯ ⋯ (8)
𝑖
𝑛
𝑥𝑖 𝑦𝑖 − 𝑦 − 𝛽(𝑥𝑖 − 𝑥) = 0 ⋯ ⋯ (6)
一般線形モデル 導出 ~単回帰~
(8)を変形
(3)のEをβで偏微分
(6)式を代入
9
𝑖
𝑛
(𝑥𝑖− 𝑥) 𝑦𝑖 − 𝑦 − 𝛽
𝑖
𝑛
(𝑥𝑖− 𝑥) 𝑥𝑖 − 𝑥 = 0 ⋯ ⋯ (10)
𝑆 𝑥𝑦 − 𝛽𝑆 𝑥𝑥 = 0 ⋯ ⋯ (11)
𝛽 =
𝑆 𝑥𝑦
𝑆 𝑥𝑥
⋯ ⋯ (12)
一般線形モデル 導出 ~単回帰~
βの一階条件を得る
さらに変形
xの分散を𝑆 𝑥𝑥,
xとyの共分散を𝑆 𝑥𝑦
として代入
10
𝑦 = 𝛼 + 𝛽𝑥 = 𝑦 −
𝑆 𝑥𝑦
𝑆 𝑥𝑥
( 𝑥 − 𝑥) ⋯ ⋯ (13)
一般線形モデル 導出 ~単回帰~
(6)と(12)をモデル
式に代入して完成
同じように重回帰についても計算できる。
11
一般線形モデル 導出 ~重回帰~
12
一般線形モデル 導出 ~重回帰~
𝑦1
𝑦2
⋮
𝑦𝑛
=
1 𝑥11 … 𝑥1𝑚
1 𝑥21 … 𝑥2𝑚
⋮
1 𝑥 𝑛1 … 𝑥 𝑛𝑚
𝛼
𝛽1
⋮
𝛽 𝑚
+
𝜀1
𝜀2
⋮
𝜀 𝑛
⋯ ⋯ (14)
𝒙𝒊 =
𝑥𝑖1
𝑥𝑖2
⋮
𝑥𝑖𝑚
, 𝜷 =
𝛽1
𝛽2
⋮
𝛽 𝑚
𝐸 =
𝜀1
𝜀2
⋮
𝜀 𝑛
=
𝑖
𝑛
𝑦𝑖 − (𝛼 + 𝒙𝒊
𝑻
𝜷)
2
⋯ ⋯ (15)
データを得る
(3)と同様に
最小化項を得る
便宜上、
次を定義
13
𝛼 = 𝑦 −
𝑥1
𝑥2
⋮
𝑥 𝑚
𝑇
𝜷 ⋯ ⋯ (16)
𝜕𝐸
𝜕𝛽𝑗
= −2
𝑖
𝑛
𝑥𝑖𝑗 𝑦𝑖 − 𝛼 + 𝒙𝒊
𝑇 𝜷 = 0 ⋯ ⋯ (17)
𝑖
𝑛
(𝑥𝑖− 𝑥) 𝑦𝑖 − 𝑦 −
𝑖
𝑛
𝑥𝑖𝑗
𝑥𝑖1 − 𝑥1
𝑥𝑖2 − 𝑥2
⋮
𝑥𝑖𝑚 − 𝑥 𝑚
𝑇
∙ 𝜷 = 0 ⋯ ⋯ (18)
一般線形モデル 導出 ~重回帰~
αの条件は
(6)とほぼ同様
Eを𝛽𝑗で微分
さらに(10)と同
様に変形する
14
𝑛𝑆1𝑦−
𝑖
𝑛
(𝑥𝑖1− 𝑥1)
𝑥𝑖1 − 𝑥1
𝑥𝑖2 − 𝑥2
⋮
𝑥𝑖𝑚 − 𝑥 𝑚
𝑇
∙ 𝜷 = 0
𝑛𝑆2𝑦−
𝑖
𝑛
(𝑥𝑖2− 𝑥2)
𝑥𝑖1 − 𝑥1
𝑥𝑖2 − 𝑥2
⋮
𝑥𝑖𝑚 − 𝑥 𝑚
𝑇
∙ 𝜷 = 0
⋮
𝑛𝑆 𝑚𝑦−
𝑖
𝑛
(𝑥𝑖𝑚− 𝑥 𝑚)
𝑥𝑖1 − 𝑥1
𝑥𝑖2 − 𝑥2
⋮
𝑥𝑖𝑚 − 𝑥 𝑚
𝑇
∙ 𝜷 = 0
一般線形モデル 導出 ~重回帰~
jを1~mで動か
していくとm個
の式が得られる
15
𝑛
𝑆1𝑦
𝑆2𝑦
⋮
𝑆 𝑚𝑦
−
𝑖
𝑛 𝑥𝑖1 − 𝑥1
𝑥𝑖2 − 𝑥2
⋮
𝑥𝑖𝑚 − 𝑥 𝑚
𝑥𝑖1 − 𝑥1
𝑥𝑖2 − 𝑥2
⋮
𝑥𝑖𝑚 − 𝑥 𝑚
𝑇
∙ 𝜷 = 0
𝑛
𝑆1𝑦
𝑆2𝑦
⋮
𝑆 𝑚𝑦
−
𝑖
𝑛 𝑥𝑖1 − 𝑥1
2 … 𝑥𝑖1 − 𝑥1 𝑥𝑖𝑚 − 𝑥 𝑚
⋮ ⋱ ⋮
𝑥𝑖𝑚 − 𝑥 𝑚 𝑥𝑖1 − 𝑥1 … 𝑥𝑖𝑚 − 𝑥 𝑚
2
𝜷 = 0
𝑛
𝑆1𝑦
𝑆2𝑦
⋮
𝑆 𝑚𝑦
−
𝑖
𝑥𝑖1 − 𝑥1
2 …
𝑖
𝑥𝑖1 − 𝑥1 𝑥𝑖𝑚 − 𝑥 𝑚
⋮ ⋱ ⋮
𝑖
𝑥𝑖𝑚 − 𝑥 𝑚 𝑥𝑖1 − 𝑥1 …
𝑖
𝑥𝑖𝑚 − 𝑥 𝑚
2
𝜷 = 0
𝑆1𝑦
𝑆2𝑦
⋮
𝑆 𝑚𝑦
−
𝑆11 … 𝑆1𝑚
⋮ ⋱ ⋮
𝑆 𝑚1 … 𝑆 𝑚𝑚
𝜷 = 0 ⋯ ⋯ (19)
一般線形モデル 導出 ~重回帰~
行列表示して整理し
ていくと、各々の分
散であらわされた式
が得られる。
16
𝜷 =
𝑆11 … 𝑆1𝑚
⋮ ⋱ ⋮
𝑆 𝑚1 … 𝑆 𝑚𝑚
−1 𝑆1𝑦
𝑆2𝑦
⋮
𝑆 𝑚𝑦
⋯ ⋯ (20)
𝑦 = 𝛼 + 𝜷𝒙 ⋯ ⋯ (21)
一般線形モデル 導出 ~重回帰~
(19)をβについ
て解けば終了。
モデル式(21)に
(16)と(20)を代入
すれば予測がで
きる。
17
一般線形モデル 導出 ~重回帰(行列表記)~
18
一般線形モデル 導出 ~重回帰(行列表記) ~
Eを定義
Eを𝛽で微分
(計算省略)
式を整える。
(ただし逆行列
の存在を仮定)
𝐸 = (𝑌 − 𝛽X)′(Y − βX)
𝑑𝐸
𝑑𝛽
= −2 𝑋′
𝑌 − 𝑋′
𝑋𝛽 = 𝟎
𝛽 = (𝑋′
𝑋)−1
𝑋′
𝑌
19
導出おわり
20
一般線形モデル 仮定との関係
• 目的変数yは正規分布に従う
➡αβの条件が任意の実数であることは暗黙的に設定されている。
xも実数であるからyも同様に、-∞~∞の実数でなくてはならない
• 説明変数群xによらず、yの分布の標準偏差σが一定
➡xによってσが変化すると、xの取り方によって誤差の評価が変わってきて
しまう。
• 説明変数群xによって、yの分布のμが変化する
➡σ一定の下でμを予測して正規分布を特定し、最も確率の高いμをyの予
測値として用いる。
21
一般化線形モデル
•正規分布でない確率分布に従うデータに対して
回帰を行う方法
•一般線形モデルで得られる実数パラメータを用
いて予測する値を、リンク関数、線形予測子を
つかって変換し、得られたデータの確率分布に
従わせる回帰モデル。
22
一般化線形モデル
確率分布(パラメータがλの時yになる確率) : p(y|λ)
リンク関数:f
線形予測子:α+βx
と設定したとき、
式:𝑓 𝜆 = 𝛼 + 𝛽𝑥 (𝑓−1 𝛼 + 𝛽𝑥 = 𝜆 とも表せる)
とすると、
𝑝 = (𝑦|𝛼, 𝛽)となるから、これで最尤推定をしてαβを求めることで、x
を定めた時のλが予測でき、これによってyの値も予測できる。
23
ポアソン回帰
ポアソン分布とは
⇒来客数などのカウントデータを主に扱う。
• 𝑝 𝑦 𝜆 =
𝜆 𝑦 𝑒−𝜆
𝑦!
(平均λの時、yとなる確率)
• 平均=分散=λ
• データyが非負整数
• yの下限はあるがの上限がない
24
ポアソン回帰
ポアソン回帰とは
• 目的変数yはポアソン分布に従う
• 説明変数群xによって、yの分布のパラメータλが変化する
と仮定した一般化線形モデル
25
ポアソン回帰
• 一般的にポアソン回帰では、以下のように設定する。
リンク関数:𝑓 𝜆 = 𝑙𝑜𝑔(𝜆)
線形予測子:α+β・x (βxはともに説明変数分の長さを持つベクトル)
確率分布:𝑝 𝑦 𝜆 = 𝑝 𝑦 𝛼, 𝜷
式:log 𝜆 = 𝛼 + 𝜷 ∙ 𝒙 ⇔ 𝜆 = 𝑒 𝛼+𝜷𝑥
➡尤度関数:𝐿 𝛼, 𝜷 = 𝒊 𝑝(𝑦𝑖| 𝛼, 𝜷)
最尤推定法: 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒 𝑙𝑜𝑔(𝐿 𝛼, 𝜷 ) = 𝑖 𝑙𝑜𝑔(𝑝(𝑦𝑖|𝛼, 𝜷))
26
ロジスティック回帰
二項分布とは
⇒成功回数をカウントしたデータを扱う
• 𝑝 𝑦 𝑞 = 𝑛
𝑦
𝑞 𝑦
(1 − 𝑞)(𝑛−𝑦)
• データyは非負整数
• yは下限上限ともにある。
27
ロジスティック回帰
ロジスティック回帰とは
• 目的変数yは二項分布に従う
• 説明変数群xによって、yの分布のパラメータqが変化する
と仮定した一般化線形モデル
28
ロジスティック回帰
• 一般的にポアソン回帰では、以下のように設定する。
リンク関数:𝑓 𝑞 = log
𝑞
1−𝑞
線形予測子:α+β・x (βxはともに説明変数分の長さを持つベクトル)
確率分布:𝑝 𝑦 𝑞 = 𝑝 𝑦 𝛼, 𝜷
式:log
𝑞
1−𝑞
= 𝛼 + 𝜷 ∙ 𝒙 ⇔ 𝑞 = 𝑙𝑜𝑔𝑖𝑠𝑡𝑖𝑐 𝑧 =
1
1+exp(−𝛼−𝜷𝒙)
➡尤度関数:𝐿 𝛼, 𝜷 = 𝒊 𝑝(𝑦𝑖| 𝛼, 𝜷)
最尤推定法: 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒 𝑙𝑜𝑔(𝐿 𝛼, 𝜷 ) = 𝑖 𝑙𝑜𝑔(𝑝(𝑦𝑖|𝛼, 𝜷)) 29
参考文献
データ解析のための統計モデリング入門: 一般化線形モデル・階層ベイ
ズモデル・MCMC
• 著者: 久保拓弥
• 出版社: 岩波書店, シリーズ「確率と情報の科学」
• 編集: 甘利俊一,麻生英樹,伊庭幸人
30

Mais conteúdo relacionado

Mais procurados

一般化線形モデル
一般化線形モデル一般化線形モデル
一般化線形モデルMatsuiRyo
 
20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)Masakazu Shinoda
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれHiroshi Shimizu
 
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Hiroshi Shimizu
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)itoyan110
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズHiroshi Shimizu
 
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデルlogics-of-blue
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデルHiroshi Shimizu
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデルMasashi Komori
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布についてHiroshi Shimizu
 
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにShushi Namba
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布についてhoxo_m
 
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)Mizumoto Atsushi
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
1 6.変数選択とAIC
1 6.変数選択とAIC1 6.変数選択とAIC
1 6.変数選択とAIClogics-of-blue
 
SEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデルSEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデルMasaru Tokuoka
 
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編Hiroshi Shimizu
 

Mais procurados (20)

一般化線形モデル
一般化線形モデル一般化線形モデル
一般化線形モデル
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
 
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
 
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデル
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
MCMC法
MCMC法MCMC法
MCMC法
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
1 6.変数選択とAIC
1 6.変数選択とAIC1 6.変数選択とAIC
1 6.変数選択とAIC
 
SEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデルSEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデル
 
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編
 

Semelhante a 一般線形モデル

自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slidesharewada, kazumi
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学Fumiya Watanabe
 
Variational autoencoder
Variational autoencoderVariational autoencoder
Variational autoencoderMikio Shiga
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ssuserf4860b
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 
ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3noname409
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)Shogo Nakamura
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ssuserf4860b
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 

Semelhante a 一般線形モデル (20)

自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学
 
Variational autoencoder
Variational autoencoderVariational autoencoder
Variational autoencoder
 
C03
C03C03
C03
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
回帰
回帰回帰
回帰
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 
ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
 
PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
 
C06
C06C06
C06
 

Mais de MatsuiRyo

ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化MatsuiRyo
 
多目的遺伝的アルゴリズム
多目的遺伝的アルゴリズム多目的遺伝的アルゴリズム
多目的遺伝的アルゴリズムMatsuiRyo
 
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)最尤推定法(NNでの応用)
最尤推定法(NNでの応用)MatsuiRyo
 
統計と機械学習
統計と機械学習統計と機械学習
統計と機械学習MatsuiRyo
 
Warshall froyd
Warshall froydWarshall froyd
Warshall froydMatsuiRyo
 
遺伝的アルゴリズム・遺伝的プログラミング
遺伝的アルゴリズム・遺伝的プログラミング遺伝的アルゴリズム・遺伝的プログラミング
遺伝的アルゴリズム・遺伝的プログラミングMatsuiRyo
 

Mais de MatsuiRyo (6)

ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化
 
多目的遺伝的アルゴリズム
多目的遺伝的アルゴリズム多目的遺伝的アルゴリズム
多目的遺伝的アルゴリズム
 
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)最尤推定法(NNでの応用)
最尤推定法(NNでの応用)
 
統計と機械学習
統計と機械学習統計と機械学習
統計と機械学習
 
Warshall froyd
Warshall froydWarshall froyd
Warshall froyd
 
遺伝的アルゴリズム・遺伝的プログラミング
遺伝的アルゴリズム・遺伝的プログラミング遺伝的アルゴリズム・遺伝的プログラミング
遺伝的アルゴリズム・遺伝的プログラミング
 

一般線形モデル