SlideShare a Scribd company logo
1 of 18
多変量解析
半田佳宏
2015/06/07
モチベーション
多次元(例:多パラメーター)を
より少ない指標を使って、
人間に新たな解釈を与える
高次元のデータセットの取り扱い その1
クラスタリングによる分類
A
B
C
D
E
F
G
H
8 プロファイル → 3 クラスター
高次元のデータセットの取り扱い その2
多変量のデータセットのパラメーター数を減らす(次元圧縮)
Gene A
Gene B
Gene C
Gene D
Gene E
Gene F
高次元のデータセットの取り扱い その3
環境条件(温度、pH、Nなど)が異なる複数地点における
環境条件と群集構造の関係を知りたい
Species
C
Species
B
Species
A
地点I
Species
D
Species
B
Species
A
地点O
いろいろな多変量分析
Linear Unimodal
Un-constrained
主成分分析
Principle Component
Analysis (PCA)
対応分析
Correspondence
Analysis (CA)
Constrained
冗長性分析
Redundancy Analysis
(RDA)
正準対応分析
Canonical
Correspondence
Analysis (CCA)
Un-constrained: 次元圧縮、要約、クラスタリング (その1や2の場合)
Constrained: ある多変量データを他の多変量データで説明したい(その3の場合)
Linear: 変数間の関係が直線型(Axis lengths<4)
Unimodal:変数間の関係が山型(Axis lengths>4)
まず、自分のサンプルがLinear / Unimodalなのか知る
直線的な関係 単変量な山型の関係
環境傾度 環境傾度
種のrichness
種のrichness
→除歪対応分析:Detrended Correspondence Analysis (DCA)を行う
(Axis lengths<4) (Axis lengths>4)
デモデータ[1]:
Veganパッケージに入っているデモデータを使用
Rを用いた除歪対応分析
#ライブラリーの読み込み
library(vegan)
#生物種データの読み込み
data(varespec)
#DCA計算
decorana(varespec)
Axis lengthが4以下なので、種の豊富さは、環境傾度と直線的な関係であると言える
主成分分析(PCA)
#ライブラリーの読み込み
library(vegan)
#生物種データの読み込み
data(varespec)
#PCA計算
vare.pca <- rda(varespec)
#統計値の出力
vare.pca
#figureの出力
plot(vare.pca)
冗長性分析(RDA)
#ライブラリーの読み込み
library(vegan)
#生物種データの読み込み
data(varespec)
#環境データの読み込み
data(varechem)
#RDA計算
vare.rda <- rda(X=varespec, Y=varechem, scale=TRUE)
#統計値の出力
vare.rda
#figureの出力
plot(vare.rda)
デモデータ[2]:
Analyzing Ecological Data (2007)のData and R code for Chapter 12.
(事前にすべての地点で種数が0.00のデータを取り除く必要がある。)
Rを用いた除歪対応分析
library(vegan)
RIKZ <- read.table("RIKZGroups.txt", header = TRUE)
Species <- RIKZ[,2:5]
decorana(Species)
Axis lengthが4以下なので、種の豊富さは、環境傾度と直線的な関係であると言える
主成分分析(PCA)
library(vegan)
data(Species)
vare.pca <- rda(Species)
vare.pca
plot(vare.pca)
冗長性分析(RDA)
library(vegan)
RIKZ <- read.table("RIKZGroups.txt", header = TRUE)
Species <- RIKZ[,2:5]
I1 <- rowSums(Species)
ExplVar <- RIKZ[, c("angle1","exposure","salinity",
"temperature","NAP","penetrability",
"grainsize","humus","chalk",
"sorting1")]
Species.sq <- sqrt(Species)
RIKZ_RDA<-rda(Species.sq, ExplVar, scale=T)
plot(RIKZ_RDA, scaling=2, type="n")
segments(x0=0,
y0=0,
x1=scores(RIKZ_RDA, display="species", scaling=2)[,1],
y1=scores(RIKZ_RDA, display="species", scaling=2)[,2])
text(RIKZ_RDA, display="sp", scaling=2, col=2)
text(RIKZ_RDA, display="bp", scaling=2, row.names(scores(RIKZ_RDA,
display="bp")), col=3)
points(RIKZ_RDA, display="lc", scaling=2, pch=19)
その他の解析方法
正準対応分析 (CCA)
#ライブラリーの読み込み
library(vegan)
#生物種データの読み込み
data(varespec)
#環境データの読み込み
data(varechem)
#CCA計算
vare.cca <- cca(X=varespec, Y=varechem, scale=TRUE)
#統計値の出力
vare.cca
#figureの出力
plot(vare.cca)
その他の多変量解析
• Nonmetrical Multidimensional Scaling (NMD/NMDS)
• クラスター解析
• 判別分析
• 数量化理論

More Related Content

What's hot

比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
 

What's hot (20)

関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 

多変量解析