Enviar pesquisa
Carregar
シリーズML-06 ニューラルネットワークによる線形回帰
•
4 gostaram
•
4,644 visualizações
Katsuhiro Morishita
Seguir
機械学習シリーズスライドです。このスライドでは、Kerasを使ったニューラルネットワークによる線形回帰問題について説明しました。
Leia menos
Leia mais
Dados e análise
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 38
Baixar agora
Baixar para ler offline
Recomendados
ResNetの仕組み
ResNetの仕組み
Kota Nagasato
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Transformer 動向調査 in 画像認識
Transformer 動向調査 in 画像認識
Kazuki Maeno
ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)
Hideki Okada
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節
Koji Matsuda
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
Recomendados
ResNetの仕組み
ResNetの仕組み
Kota Nagasato
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
Transformer 動向調査 in 画像認識
Transformer 動向調査 in 画像認識
Kazuki Maeno
ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)
Hideki Okada
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節
Koji Matsuda
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Deep Learning JP
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation
Deep Learning JP
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
Masashi Shibata
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
文章生成の未解決問題
文章生成の未解決問題
KCS Keio Computer Society
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
Takuya Minagawa
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
Deep Learning JP
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
Sony Network Communications Inc.
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
文献紹介:Learning From Noisy Labels With Deep Neural Networks: A Survey
文献紹介:Learning From Noisy Labels With Deep Neural Networks: A Survey
Toru Tamaki
Jenkins + awsで並列テスト
Jenkins + awsで並列テスト
Yamamoto Kazuhisa
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
Deep Learning JP
Mais conteúdo relacionado
Mais procurados
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Deep Learning JP
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation
Deep Learning JP
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
Masashi Shibata
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
文章生成の未解決問題
文章生成の未解決問題
KCS Keio Computer Society
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
Takuya Minagawa
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
Deep Learning JP
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
Sony Network Communications Inc.
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
文献紹介:Learning From Noisy Labels With Deep Neural Networks: A Survey
文献紹介:Learning From Noisy Labels With Deep Neural Networks: A Survey
Toru Tamaki
Mais procurados
(20)
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
全力解説!Transformer
全力解説!Transformer
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
文章生成の未解決問題
文章生成の未解決問題
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
文献紹介:Learning From Noisy Labels With Deep Neural Networks: A Survey
文献紹介:Learning From Noisy Labels With Deep Neural Networks: A Survey
Semelhante a シリーズML-06 ニューラルネットワークによる線形回帰
Jenkins + awsで並列テスト
Jenkins + awsで並列テスト
Yamamoto Kazuhisa
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
Deep Learning JP
Kubernetesにまつわるエトセトラ(主に苦労話)
Kubernetesにまつわるエトセトラ(主に苦労話)
Works Applications
[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All
Deep Learning JP
AKSとTerraformでKubernetesクラスター作成
AKSとTerraformでKubernetesクラスター作成
satosato8
Docker and OpenVNet
Docker and OpenVNet
skipping classes
Asakusa バッチの運用を支える技術
Asakusa バッチの運用を支える技術
KinebuchiTomo
Using Deep Learning for Recommendation
Using Deep Learning for Recommendation
Eduardo Gonzalez
NeurIPS2019参加報告
NeurIPS2019参加報告
Masanari Kimura
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
Yuya Unno
Semelhante a シリーズML-06 ニューラルネットワークによる線形回帰
(10)
Jenkins + awsで並列テスト
Jenkins + awsで並列テスト
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
Kubernetesにまつわるエトセトラ(主に苦労話)
Kubernetesにまつわるエトセトラ(主に苦労話)
[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All
AKSとTerraformでKubernetesクラスター作成
AKSとTerraformでKubernetesクラスター作成
Docker and OpenVNet
Docker and OpenVNet
Asakusa バッチの運用を支える技術
Asakusa バッチの運用を支える技術
Using Deep Learning for Recommendation
Using Deep Learning for Recommendation
NeurIPS2019参加報告
NeurIPS2019参加報告
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
Mais de Katsuhiro Morishita
数ページの卒業論文作成のためのwordの使い方
数ページの卒業論文作成のためのwordの使い方
Katsuhiro Morishita
Pythonのパッケージ管理ツールの話@2020
Pythonのパッケージ管理ツールの話@2020
Katsuhiro Morishita
オトナのpandas勉強会(資料)
オトナのpandas勉強会(資料)
Katsuhiro Morishita
SIgfox触ってみた in IoTLT in 熊本市 vol.3
SIgfox触ってみた in IoTLT in 熊本市 vol.3
Katsuhiro Morishita
Google Colaboratoryの使い方
Google Colaboratoryの使い方
Katsuhiro Morishita
Excelでのグラフの作成方法re
Excelでのグラフの作成方法re
Katsuhiro Morishita
Pythonのmain関数
Pythonのmain関数
Katsuhiro Morishita
Pythonスクリプトの実行方法@2018
Pythonスクリプトの実行方法@2018
Katsuhiro Morishita
機械学習と主成分分析
機械学習と主成分分析
Katsuhiro Morishita
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Katsuhiro Morishita
マークシート読み込みプログラムを作ってみた@2018-04-04
マークシート読み込みプログラムを作ってみた@2018-04-04
Katsuhiro Morishita
オトナの画像認識 2018年3月21日実施
オトナの画像認識 2018年3月21日実施
Katsuhiro Morishita
LoRa-WANで河川水位を計測してみた@IoTLT@熊本市 vol.001
LoRa-WANで河川水位を計測してみた@IoTLT@熊本市 vol.001
Katsuhiro Morishita
シリーズML-08 ニューラルネットワークを用いた識別・分類ーシングルラベルー
シリーズML-08 ニューラルネットワークを用いた識別・分類ーシングルラベルー
Katsuhiro Morishita
シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-07 ニューラルネットワークによる非線形回帰
Katsuhiro Morishita
シリーズML-05 ニューラルネットワーク
シリーズML-05 ニューラルネットワーク
Katsuhiro Morishita
シリーズML-03 ランダムフォレストによる自動識別
シリーズML-03 ランダムフォレストによる自動識別
Katsuhiro Morishita
シリーズML-01 機械学習の概要
シリーズML-01 機械学習の概要
Katsuhiro Morishita
Pandas利用上のエラーとその対策
Pandas利用上のエラーとその対策
Katsuhiro Morishita
Pythonによる、デジタル通信のための ビタビ符号化・復号ライブラリの作成
Pythonによる、デジタル通信のための ビタビ符号化・復号ライブラリの作成
Katsuhiro Morishita
Mais de Katsuhiro Morishita
(20)
数ページの卒業論文作成のためのwordの使い方
数ページの卒業論文作成のためのwordの使い方
Pythonのパッケージ管理ツールの話@2020
Pythonのパッケージ管理ツールの話@2020
オトナのpandas勉強会(資料)
オトナのpandas勉強会(資料)
SIgfox触ってみた in IoTLT in 熊本市 vol.3
SIgfox触ってみた in IoTLT in 熊本市 vol.3
Google Colaboratoryの使い方
Google Colaboratoryの使い方
Excelでのグラフの作成方法re
Excelでのグラフの作成方法re
Pythonのmain関数
Pythonのmain関数
Pythonスクリプトの実行方法@2018
Pythonスクリプトの実行方法@2018
機械学習と主成分分析
機械学習と主成分分析
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
マークシート読み込みプログラムを作ってみた@2018-04-04
マークシート読み込みプログラムを作ってみた@2018-04-04
オトナの画像認識 2018年3月21日実施
オトナの画像認識 2018年3月21日実施
LoRa-WANで河川水位を計測してみた@IoTLT@熊本市 vol.001
LoRa-WANで河川水位を計測してみた@IoTLT@熊本市 vol.001
シリーズML-08 ニューラルネットワークを用いた識別・分類ーシングルラベルー
シリーズML-08 ニューラルネットワークを用いた識別・分類ーシングルラベルー
シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-05 ニューラルネットワーク
シリーズML-05 ニューラルネットワーク
シリーズML-03 ランダムフォレストによる自動識別
シリーズML-03 ランダムフォレストによる自動識別
シリーズML-01 機械学習の概要
シリーズML-01 機械学習の概要
Pandas利用上のエラーとその対策
Pandas利用上のエラーとその対策
Pythonによる、デジタル通信のための ビタビ符号化・復号ライブラリの作成
Pythonによる、デジタル通信のための ビタビ符号化・復号ライブラリの作成
シリーズML-06 ニューラルネットワークによる線形回帰
1.
Ver. 1.0, 2017-08-11 森下功啓 1
2.
回帰問題とは? • 特徴ベクトルを基に、値を推定する問題を回帰問題という • 特徴ベクトルが数値やラベルという点は識別問題と同じ •
正解が実数という点が識別問題と異なる 2 学習器 過去7時間の雨量 3時間後の河川水位 河川水位を予測する回帰の例
3.
3 ニューラルネットワークを使って回帰問題は解けるが、 全て自前でプログラムを作るのは大変だ そこで、Kerasというライブラリを使って楽をしよう
4.
Kerasの概要 4
5.
Kerasとは • ニューラルネットワークの積層を直感的に実現 • 広く使われている 5 Kerasは,Pythonで書かれた,TensorFlowまたはCNTK, Theano上で実行可能な高水準のニューラルネットワークライブ ラリです.
Kerasは,迅速な実験を可能にすることに重点を置い て開発されました. アイデアから結果に到達するまでのリード タイムをできるだけ小さくすることが,良い研究をするための鍵 になります. -Keras Documentation https://keras.io/ja/
6.
6 kerasを使えば、ニューラルネットワークは簡単に組める ここでは、熊本市で隔週で開催されているオトナのプログラミング 勉強会で矢野氏が発表した解説スライドを見てみよう
7.
7 From 0から作るDeep Learning勉強会(矢野氏作)
8.
8 From 0から作るDeep Learning勉強会(矢野氏作)
9.
9 From 0から作るDeep Learning勉強会(矢野氏作)
10.
10 From 0から作るDeep Learning勉強会(矢野氏作)
11.
11 From 0から作るDeep Learning勉強会(矢野氏作)
12.
12 From 0から作るDeep Learning勉強会(矢野氏作)
13.
13 From 0から作るDeep Learning勉強会(矢野氏作)
14.
14 必要なことはほぼ全部書いてあるのだけど、、、 これだけでは分からないだろうから 重回帰式を求める例を見てみよう
15.
Kerasを使って 重回帰式を求める 15
16.
重回帰式とは • 重回帰式とは、式(1)である • ここで、
𝑥は特徴量を表し、𝛽はその係数である • 予測値の計算に式(1)を使う • ちなみに、重回帰分析は係数𝛽を行列計算により求める 16 𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽 𝑛 𝑥 𝑛 (1) *ここでの線形とは、直線という意味である。 **式(1)は1次式であるので、直線の式である ***重回帰分析は線形の式に回帰させるので線形回帰問題の一種である
17.
17 これをKerasで解いてみる 𝑦 = 𝛽0
+ 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽 𝑛 𝑥 𝑛 (1)
18.
サンプルプログラムのダウンロード 18 1 2 Download: https://github.com/KatsuhiroMorishita/machine_leaning_samples
19.
19 • 以降のスライドでは、下記のプログラムを使った解説を行います • 重回帰分析問題用のサンプルです
20.
regression_learning.csv • 重回帰問題用に作成した学習用のデータ 20 特徴ベクトル (説明変数) 正解 (目的変数)
21.
21 regression_learning.csvで作成した散布図行列 重回帰分析では問題になるほどの多重共線性がみられる。
22.
learning.py • Kerasを用いて、学習を行うプログラム 22
23.
23 学習データの読み込み 列の切り出し x: 特徴ベクトル y: 正解値のベクトル 学習済みのモデルを保存 結合係数を人が読める形で保存 モデル構築 学習の実行
24.
24 出力層の活性化関数は指 定されていないのでlinear この層(入力層)のユニット数はs-1個(入力する教師データに依存) 学習係数は0.05 1つの教師データ当たりの 学習回数は2000 200個の教師データを使って 結合係数を更新する 次の層(出力層)の ユニット数は1個 バイアス用のユニットは 有効(標準で有効) 誤差関数は二乗平均誤差 学習中に状況を表示するなら1 結合係数の更新回数 = epochs
/ batch_size
25.
モデル構造 25 出力層入力層 𝑥1 𝑦 1 Unit 0 Unit 𝑛 𝑤1,1 0 𝑤2,1 0 𝑤0,1 0 結合係数 Layer
0 Layer 1 出力層のユニットの活 性化関数は指定され ていないので、linear ∴ ℎ 𝑧 = 𝑧 𝑦 = 𝑦1 1 = 𝑧1 1 = 𝑾1 1 ∙ 𝑿 𝑥 𝑛 ・ ・ ・ 𝑾1 1 = (𝑤0,1 0 , ⋯ , 𝑤 𝑛,1 0 ) 𝑇 𝑿 = (1, 𝑥1, ⋯ , 𝑥 𝑛) 𝑇ここで、 プログラムの中で、 nはs-1として表現さ れていた 結合係数を求めれば、そ れが回帰式の係数となる 𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽 𝑛 𝑥 𝑛重回帰式 Unit 1
26.
学習中の出力の見方 26 エポック数(学習の進 行割合が分かる) 誤差関数の値の バッチ毎の平均 (小さいほど高精度) 学習終了時にlossの値が収束していないようであれば、学習回数(epochs)を増やすと良い。
27.
学習結果の見方 27 [array([[ 0.11853985], [ 0.25794539], [
0.24517672], [ 0.44266531], [ 0.1166774 ], [ 0.49679297], [-0.26336813], [-0.54205322], [-0.83572966]], dtype=float32), array([ 0.47580394], dtype=float32)] 𝑤 𝑛,1 0 , 𝑛 = 9 𝑤1,1 0 バイアス項 𝑤0,1 0 結合係数をコンソールに出力しているので、ここから重回帰係 数を読み取ることができる。なお、「weights.txt」にも同じ文字列 が出力されている。
28.
ファイルに保存された学習器 • learning.pyを実行すると学習が行われ、学習済みの学習 器はファイルに保存される • 保存されたファイルを使えば、いつでも学習後の学習器を 利用できる 28 保存されたモデル情報と、結合係数 modelの中身はモデル構造が記録 されたテキストである param.hdf5の中身は結合係数が バイナリ形式で記録されている
29.
prediction.py • 検証データの特徴ベクトルから正解を推定するプログラム 29
30.
30 検証データの読み込み 検証結果を保存 検証の実行 数値の入った2次元配列を 文字列に変換する関数 学習器のモデルをロード 結合係数をロード 列の切り出し x: 特徴ベクトル
31.
予測結果の検証 • prediction.pyによる予測結果がresult_test.csvに出力される • このファイルに記載された予測結果と正解の散布図を作成した •
完全に予測と正解が一致していれば、完全相関となる • 一次近似式の決定係数R2で予測精度を評価できる 31 予測値と正解の散布図の例 (横軸が正解、縦軸が予測値)
32.
重回帰分析に対する ニューラルネットワークの利点 • 普通の重回帰分析では、ほぼ完全相関な説明変数があると逆 行列を求めることができずに計算できない • 高い相関のある片方の変数を使わないという手で回避できるけども •
NNでは、多重共線性があっても計算できる • 相関のある変数間ではお互いの影響を補完し得るので、相関のある変 数の重み係数は不安定ではあるが、発散はしない 32
33.
33
34.
34 このスライドではKerasというライブラリを使って ニューラルネットワークで重回帰係数を求めてみました。 如何だったでしょうか?少しはニューラルネットワークの 感触がつかめると良いのですが・・・・ さて、線形近似はできましたので、次は非線形近似に トライしてみましょう。
35.
参考文献 35
36.
参考リンク集 • Keras 公式 •
https://keras.io/ja/getting-started/sequential-model-guide/ • Iris • http://aidiary.hatenablog.com/entry/20161108/1478609028 • Neural Networkでの失敗経験やアンチパターンを語る • http://nonbiri-tereka.hatenablog.com/entry/2016/03/10/073633 • 目的関数(ロス関数) • https://keras.io/ja/objectives/ • auto encoder • https://elix-tech.github.io/ja/2016/07/17/autoencoder.html • KerasでVGG16を使う 人工知能に関する断創録 • http://aidiary.hatenablog.com/entry/20170104/1483535144 • 技術力の有りそうな人のブログ • CNNの隠れ層の可視化の記事も良いかもしれない • DeepLearning系ライブラリ、Kerasがあまりにも便利だったので使い方メモ • 最初に読むブログとしては網羅的で分かりやすいかも • http://www.procrasist.com/entry/2017/01/07/154441 36
37.
参考リンク集 • TensorFlowを始める前に知っておくべきテンソルのこと(追記:より一般的な話題へ) • http://s0sem0y.hatenablog.com/entry/2016/12/01/223834 •
scikit-learn で線形回帰 (単回帰分析・重回帰分析) • pandasの使い方の参考にも良い • http://pythondatascience.plavox.info/scikit-learn/%E7%B7%9A%E5%BD%A2%E5%9B%9E%E5%B8%B0 • [TF]KerasでModelとParameterをLoad/Saveする方法 • http://qiita.com/supersaiakujin/items/b9c9da9497c2163d5a74 • h5pyが必要だった • Batch Normalization:ニューラルネットワークの学習を加速させる汎用的で強力な手法 • https://deepage.net/deep_learning/2016/10/26/batch_normalization.html • Softmaxって何をしてるの? • http://hiro2o2.hatenablog.jp/entry/2016/07/21/013805 • 機械学習におけるクラス分類問題の各関数の意味解説 • http://qiita.com/shunchan0677/items/d30e5206677f2068a468 37
38.
Deep Learning Tools 38 http://pytorch.org/ https://chainer.org/ 流行の兆しあり 日本で人気大
Baixar agora