Enviar pesquisa
Carregar
クラスタ数の決め方(Tokyo.r#60)
•
1 gostou
•
4,507 visualizações
osamu morimoto
Seguir
クラスター分析におけるクラスタ数の決め方
Leia menos
Leia mais
Dados e análise
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 7
Baixar agora
Baixar para ler offline
Recomendados
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
第126回 ロボット工学セミナー 三次元点群と深層学習
第126回 ロボット工学セミナー 三次元点群と深層学習
Naoya Chiba
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
Recomendados
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
第126回 ロボット工学セミナー 三次元点群と深層学習
第126回 ロボット工学セミナー 三次元点群と深層学習
Naoya Chiba
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
Ken'ichi Matsui
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
cvpaper. challenge
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
Hiroharu Kato
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
Stanでガウス過程
Stanでガウス過程
Hiroshi Shimizu
R Study Tokyo03
R Study Tokyo03
Yohei Sato
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
Hiroyuki Muto
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理
wada, kazumi
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
負の二項分布について
負の二項分布について
Hiroshi Shimizu
距離と分類の話
距離と分類の話
考司 小杉
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
osamu morimoto
Mais conteúdo relacionado
Mais procurados
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
Ken'ichi Matsui
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
cvpaper. challenge
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
Hiroharu Kato
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
Stanでガウス過程
Stanでガウス過程
Hiroshi Shimizu
R Study Tokyo03
R Study Tokyo03
Yohei Sato
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
Hiroyuki Muto
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理
wada, kazumi
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
負の二項分布について
負の二項分布について
Hiroshi Shimizu
Mais procurados
(20)
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
[第2回3D勉強会 研究紹介] Neural 3D Mesh Renderer (CVPR 2018)
カルマンフィルタ入門
カルマンフィルタ入門
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Stanでガウス過程
Stanでガウス過程
R Study Tokyo03
R Study Tokyo03
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
負の二項分布について
負の二項分布について
Destaque
距離と分類の話
距離と分類の話
考司 小杉
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
osamu morimoto
tokyo webmining3 2010.04.17.
tokyo webmining3 2010.04.17.
osamu morimoto
Tokyo r6 sem3
Tokyo r6 sem3
osamu morimoto
Tokyo webmining5
Tokyo webmining5
osamu morimoto
時系列データ分析とPython
時系列データ分析とPython
Hirofumi Tsuruta
Destaque
(6)
距離と分類の話
距離と分類の話
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
tokyo webmining3 2010.04.17.
tokyo webmining3 2010.04.17.
Tokyo r6 sem3
Tokyo r6 sem3
Tokyo webmining5
Tokyo webmining5
時系列データ分析とPython
時系列データ分析とPython
Mais de osamu morimoto
Tokyo.R #76 lavaan plot
Tokyo.R #76 lavaan plot
osamu morimoto
コサインクラスタリング
コサインクラスタリング
osamu morimoto
Rでコンジョイント分析
Rでコンジョイント分析
osamu morimoto
Tokyo.R #22 Association Rules
Tokyo.R #22 Association Rules
osamu morimoto
Tokyo r 11_self_organizing_map
Tokyo r 11_self_organizing_map
osamu morimoto
Tokyo.R8 brand positioning 2010.08.28.
Tokyo.R8 brand positioning 2010.08.28.
osamu morimoto
Mais de osamu morimoto
(6)
Tokyo.R #76 lavaan plot
Tokyo.R #76 lavaan plot
コサインクラスタリング
コサインクラスタリング
Rでコンジョイント分析
Rでコンジョイント分析
Tokyo.R #22 Association Rules
Tokyo.R #22 Association Rules
Tokyo r 11_self_organizing_map
Tokyo r 11_self_organizing_map
Tokyo.R8 brand positioning 2010.08.28.
Tokyo.R8 brand positioning 2010.08.28.
クラスタ数の決め方(Tokyo.r#60)
1.
クラスタ分析における クラスタ数の決め方 @bob3bob3 Tokyo.R #60
2.
クラスタ分析におけるクラスタ数の決め方 ● クラスタ分析を行う際、クラスタ数をいくつにするべきかという のは非常に悩ましい問題。 ● 目的や分野によっても考え方が異なるでしょう。 ●
原則として、分析者が意思を持って決めるべき、というのが結 論ではある。 ● ただ、それを支援する、より適切と思われるクラスタ数を示唆 してくれる指標(cluster index)がいくつかRで提供されている。
3.
パッケージと関数 ● 今回は3つのパッケージと関数をご紹介。 ○ {cclust}
パッケージの clusterIndex() ○ {vegan} パッケージの cascadeKM() ○ {clusterSim} パッケージの cluster.Sim()
4.
{cclust}パッケージのclustIndex() ● clustIndex() は
cclust() でクラスタリングした結果に対して指標値を返す。 ● 15種の指標を返すが、calinski(疑似F統計量)がおすすめ。 library(cclust) DAT <- as.matrix(iris[,-5]) MAX <- 10 res <- data.frame(matrix(0,MAX,15)) for (i in 2:MAX){ clust <- cclust(DAT, i) temp <- clustIndex(clust, DAT) if(i==2) colnames(res) <- names(temp) res[i,] <- temp } plot(res$calinski, type="b")
5.
{vegan} パッケージの cascadeKM() ●
cascadeKM() は calinski に基づいて最適と考えられるクラスタリング結果を返す。 library(vegan) # 試行するクラスタ数の最小数と最大数を与える # デフォルトは calinski だが ssi も使える res <- cascadeKM(iris[,-5], 2, 10) best <- plot(res) best$x[,best$best.grps]
6.
{clusterSim} パッケージの cluster.Sim() ●
cluster.Sim()は複数の標準化手法、距離、クラスタリング手法を組み合わせて最 適なクラスタリングを探索する。引数の指定が独特なのでヘルプからたどれる clusterSim_details.pdf を見ながら設定すること。 library(clusterSim) cluster.Sim(iris[,-5], p=1, min=2, max=10, "G1", outputHtml="results.iris") # これで3,312通りのクラスタリングが試される。 # 非力なマシンでは非常に時間がかかるので注意。
7.
最後に ● クラスタの数は分析者が意思を持って決めるべきという結論 は変わらないのですが、これらの指標を使うことで検討にかか る負担を大きく減らし、考察に時間を使うことができます。 ● また、GIGOなのは変わらないので、これらの指標を使っても 元データがダメだとどうにもなりません。本当の肝はどんな データをクラスタリングに利用するかという部分ですが、その 話はまたこんど。
Baixar agora