Submit Search
Upload
ラビットチャレンジレポート 深層学習Day3
•
Download as PPTX, PDF
•
0 likes
•
108 views
S
ssuserf4860b
Follow
ラビットチャレンジレポート 深層学習Day3
Read less
Read more
Engineering
Report
Share
Report
Share
1 of 25
Download now
Recommended
Knn発表資料(R)
Knn発表資料(R)
Sora Kubota
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
確率プロット
確率プロット
Tomoyuki Tarumi
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
Prml07
Prml07
Tsukasa Fukunaga
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
関東第2回r勉強会
関東第2回r勉強会
Paweł Rusin
Kim120 lt 12_6
Kim120 lt 12_6
amusementcreators
Recommended
Knn発表資料(R)
Knn発表資料(R)
Sora Kubota
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
確率プロット
確率プロット
Tomoyuki Tarumi
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
Prml07
Prml07
Tsukasa Fukunaga
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
関東第2回r勉強会
関東第2回r勉強会
Paweł Rusin
Kim120 lt 12_6
Kim120 lt 12_6
amusementcreators
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
PRML chapter7
PRML chapter7
Takahiro (Poly) Horikawa
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
fukuoka.ex
Study session#3
Study session#3
恵太 水野
Study session#3
Study session#3
恵太 水野
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発
Shin Harase
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
hagino 3000
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
Rパッケージ“KFAS”を使った時系列データの解析方法
Rパッケージ“KFAS”を使った時系列データの解析方法
Hiroki Itô
xtsパッケージで時系列解析
xtsパッケージで時系列解析
Nagi Teramo
線形識別モデル
線形識別モデル
貴之 八木
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
京都大学大学院情報学研究科数理工学専攻
確率的主成分分析
確率的主成分分析
Mika Yoshimura
TopCoder SRM614 解説
TopCoder SRM614 解説
EmKjp
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
Maruyama Tetsutaro
PRML§12-連続潜在変数
PRML§12-連続潜在変数
Keisuke OTAKI
PRML chapter5
PRML chapter5
Takahiro (Poly) Horikawa
第三回R勉強会
第三回R勉強会
Paweł Rusin
JSIAM_2019_9_4
JSIAM_2019_9_4
KoutaFunakoshi
More Related Content
What's hot
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
PRML chapter7
PRML chapter7
Takahiro (Poly) Horikawa
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
fukuoka.ex
Study session#3
Study session#3
恵太 水野
Study session#3
Study session#3
恵太 水野
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発
Shin Harase
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
hagino 3000
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
Rパッケージ“KFAS”を使った時系列データの解析方法
Rパッケージ“KFAS”を使った時系列データの解析方法
Hiroki Itô
xtsパッケージで時系列解析
xtsパッケージで時系列解析
Nagi Teramo
線形識別モデル
線形識別モデル
貴之 八木
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
京都大学大学院情報学研究科数理工学専攻
確率的主成分分析
確率的主成分分析
Mika Yoshimura
TopCoder SRM614 解説
TopCoder SRM614 解説
EmKjp
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
Maruyama Tetsutaro
PRML§12-連続潜在変数
PRML§12-連続潜在変数
Keisuke OTAKI
PRML chapter5
PRML chapter5
Takahiro (Poly) Horikawa
What's hot
(20)
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
PRML chapter7
PRML chapter7
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
重力プログラミング入門「第1回:地球の重力下で人工衛星を公転軌道に乗せる」
Study session#3
Study session#3
Study session#3
Study session#3
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
coordinate descent 法について
coordinate descent 法について
Rパッケージ“KFAS”を使った時系列データの解析方法
Rパッケージ“KFAS”を使った時系列データの解析方法
xtsパッケージで時系列解析
xtsパッケージで時系列解析
線形識別モデル
線形識別モデル
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
確率的主成分分析
確率的主成分分析
TopCoder SRM614 解説
TopCoder SRM614 解説
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
PRML§12-連続潜在変数
PRML§12-連続潜在変数
PRML chapter5
PRML chapter5
Similar to ラビットチャレンジレポート 深層学習Day3
第三回R勉強会
第三回R勉強会
Paweł Rusin
JSIAM_2019_9_4
JSIAM_2019_9_4
KoutaFunakoshi
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
Shu Tanaka
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
機械学習
機械学習
ssusere8ae711
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
Miki Katsuragi
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
機械学習と深層学習の数理
機械学習と深層学習の数理
Ryo Nakamura
NN, CNN, and Image Analysis
NN, CNN, and Image Analysis
Yuki Shimada
社内機械学習勉強会 #5
社内機械学習勉強会 #5
shingo suzuki
0621
0621
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
Long short-term memory (LSTM)
Long short-term memory (LSTM)
Kenta Ishii
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)
Takashi J OZAKI
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
領域分割法
領域分割法
ADVENTURE Project
topology of musical data
topology of musical data
Tatsuki SHIMIZU
TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座
Ruo Ando
Similar to ラビットチャレンジレポート 深層学習Day3
(20)
第三回R勉強会
第三回R勉強会
JSIAM_2019_9_4
JSIAM_2019_9_4
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
機械学習
機械学習
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
深層学習 Day1レポート
深層学習 Day1レポート
機械学習と深層学習の数理
機械学習と深層学習の数理
NN, CNN, and Image Analysis
NN, CNN, and Image Analysis
社内機械学習勉強会 #5
社内機械学習勉強会 #5
0621
0621
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Long short-term memory (LSTM)
Long short-term memory (LSTM)
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
領域分割法
領域分割法
topology of musical data
topology of musical data
TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座
More from ssuserf4860b
ラビットチャレンジレポート 深層学習Day4
ラビットチャレンジレポート 深層学習Day4
ssuserf4860b
【最新ではありません。再度URL送付しています→https://www.slideshare.net/ssuserf4860b/day-250965207...
【最新ではありません。再度URL送付しています→https://www.slideshare.net/ssuserf4860b/day-250965207...
ssuserf4860b
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2
ssuserf4860b
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 深層学習 Day1
ssuserf4860b
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
ssuserf4860b
More from ssuserf4860b
(6)
ラビットチャレンジレポート 深層学習Day4
ラビットチャレンジレポート 深層学習Day4
【最新ではありません。再度URL送付しています→https://www.slideshare.net/ssuserf4860b/day-250965207...
【最新ではありません。再度URL送付しています→https://www.slideshare.net/ssuserf4860b/day-250965207...
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 深層学習 Day1
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 深層学習Day3
1.
深層学習 Day3
2.
Day3 01 RNN 02 LSTM 03
GRU 04 双方向RNN 05 Seq2Seq 06 Word2Vec 07 Attention Mechanism
3.
01 RNN RNN(再帰的(Recurrent)ニューラルネットワーク) 音声データやテキストデータ年度ごとのA社の売上高、1時間ごとの東京都の降水量、地球 上で発生した地震の時刻と場所、震度などの記録などの時系列データ(時間順序を追って取得 されたデータ)に対応可能。 前の層の中間層が次の層の中間層へのインプットとなる。(この重みWが重要。確認テスト でも問われた) これにより、例えばx2はy2,
y3, y4それぞれにインプットとして影響を与えている。 y1 = g(Wout * z1 + c) , z1 = f(Win * x1 + W * z0 + b) ← y1をx, z0, z1, Win, W, Woutで表現(確認テスト)
4.
01 RNN BPTT RNNでの誤差逆伝番法。 WinにたどりつくにはWinの関数であ るuを最終的に微分 また、これは左の式より明らかにx^t uにたどりつくには、 Eはyの関数 (yはvの関数) (vはzの関数) zはuの関数
5.
01 RNN BPTT RNNでの誤差逆伝番法。 WoutにたどりつくにはWoutの関数であるv を最終的に微分 また、これは左の式より明らかにz^t vにたどりつくには、 Eは(yの関数 yは)vの関数 しかし、前の層、前の層へと逆伝番していき 勾配が消失する問題が生じてくる。
6.
02 LSTM LSTM(Long
Short Term Memory) x ht-1 Ct-1 和 積 積 σ σ tanh 和 tanh σ Ct ht 積 CEC 忘却ゲート 入力ゲート 出力ゲート ・Sigmoid(σ)との積で、どの情報を重要視するかを実施している 例えばゼロがかけられた要素はゼロで、1がかけられた要素は1 ・tanhで一度正規化している f i g o
7.
02 LSTM CEC 過去のデータを保存するためのユニット 入力データについて、時間依存度に関係なく重みが一律であり学習特性が低かったので、入力ゲ ート・出力ゲートができた。また、過去の不要な情報を保持し続けるので、忘却ゲートができた (確認テスト)
入力ゲート 「前のユニット(1つ前の時間のユニット)の入力をどの程度受け取るか」を調整するためのゲート 出力ゲート 「前のユニット(1つ前の時間のユニット)の出力をどの程度受け取るか」を調整するためのゲート 忘却ゲート 「過去の情報が入っているCECの中身をどの程度残すか」を調整するためのゲート ※文脈上でなくなってもかまわないものは消える(確認テスト)
8.
02 LSTM LSTM(Long
Short Term Memory) x ht-1 Ct-1 和 積 積 σ σ tanh 和 tanh σ Ct ht 積 CEC 忘却ゲート 入力ゲート 出力ゲート 覗き穴結合 過去の情報を保持するCECの 値に重み行列を介して伝番
9.
03 GRU GRU(Gated
Recurrent Unit) LSTMのパラメータを減らし計算負荷を減らしたもの x ht-1 積 積 σ σ tanh ht 積 1- 和 逆に、パラメータが多く計算負 荷があるというのがLSTMの課 題(確認テスト)
10.
04 双方向RNN 双方向RNN 未来の情報もインプットに入れたもの
11.
05 seq2seq seq2seq Sequence-to-sequenceは深層学習で用いられるモデルの1つであり,機械翻訳や文章要約、 画像キャプションの付与などの分野で使われている Encoder、Decoderでお互い学習済みのモデルが、Encoderからのfinal
state(状態ベクト ル)を受けて出力し、その出力をインプットに次を出力を繰り返す。 Encoder Decoder I am Mike 私 は ミケ です 。 . final state (thought vector)
12.
05 seq2seq HRED(the
hierarchical recurrent encoder-decoder)およびVHRED HREDでは、エンコーダーとデコーダーに加えて、文脈を学習するRNNを追加する。つま り、単語の時系列を予測するRNNと、文章の時系列を予測するRNNが階層的な構造になって いる。ただ、これだと毎回同じ返しや短い返答となるため、VAEを取り入れたVHREDがある。 VAEは潜在変数zで表現したもの(Zは確率分布を仮定) Encoder Decoder RNN Encoder Decoder RNN ・・・
13.
06 word2vec word2vec 従来はone-hotベクトルと呼ばれるものでベクトル表現していた。これは配列と各単語を対 応付け、該当する単語の配列の箇所を1をたてるなどしてフラグのように使うもの。これは 本当にフラグであり、数値に意味を持たない。 そこで、word2vecは単語の意味を数値で表現することにした。 配列の1番目は高さ、2番目は幅、3番目は色などとしてそれぞれをどのくらいのものか 数値的に表す。 こうすることで、冷たい
+ 水 = 氷 のようなこともできるようになる。 例:私はミケです という文章があったときに配列の1番目を私、2番目を は、 3番目をミケ、4番目を です とすると、配列として「ミケ」は[0, 0, 1, 0]と表現することができる。
14.
07 Attention Mechanism
Attention Mechanism seq2seqでの入力と出力で、どの単語が関連しているかの関連度を学習する仕組み
15.
演習
16.
01 RNN RNN実行結果
17.
02 LSTM from tensorflow.keras.models
import Sequential from tensorflow.keras.layers import Dense, Activation from tensorflow.keras.layers import LSTM from tensorflow.keras.optimizers import Adam from tensorflow.keras.callbacks import EarlyStopping import numpy as np import matplotlib.pyplot as plt def sin(x, T=100): return np.sin(2.0 * np.pi * x / T) # sin波にノイズを付与する def toy_problem(T=100, ampl=0.05): x = np.arange(0, 2 * T + 1) noise = ampl * np.random.uniform(low=-1.0, high=1.0, size=len(x)) return sin(x) + noise f = toy_problem() コードを載せてあったサイトをまねて、実際に実行してみた(正弦波の予測)
18.
def make_dataset(low_data, n_prev=100): data,
target = [], [] maxlen = 25 for i in range(len(low_data)-maxlen): data.append(low_data[i:i + maxlen]) target.append(low_data[i + maxlen]) re_data = np.array(data).reshape(len(data), maxlen, 1) re_target = np.array(target).reshape(len(data), 1) return re_data, re_target 02 LSTM
19.
#g -> 学習データ,h
-> 学習ラベル g, h = make_dataset(f) length_of_sequence = g.shape[1] in_out_neurons = 1 n_hidden = 300 model = Sequential() model.add(LSTM(n_hidden, batch_input_shape=(None, length_of_sequence, in_out_neurons), return_sequences =False)) model.add(Dense(in_out_neurons)) model.add(Activation("linear")) optimizer = Adam(lr=0.001) model.compile(loss="mean_squared_error", optimizer=optimizer) early_stopping = EarlyStopping(monitor='val_loss', mode='auto', patience=20) model.fit(g, h, batch_size=300, epochs=100, validation_split=0.1, callbacks=[early_stopping] ) LSTMを使用 02 LSTM
20.
# 予測 predicted =
model.predict(g) plt.figure() plt.plot(range(25,len(predicted)+25),predicted, color="r", label="predict_data") plt.plot(range(0, len(f)), f, color="b", label="row_data") plt.legend() plt.show() 02 LSTM
21.
03 GRU # シグモイド def
sigmoid(x): return 1 / (1 + np.exp(-x)) # GRUモデル # N:バッチサイズ、D:入力単語数、H:中間層の出力次元数 class GRU: def __init__(self, wx, wh, b): self.params = wx, wh, b # # wx[D,3H], wh[H,3H], b[3H] def forward(self, x, h_prev): wx, wh, b = self.params H = wh.shape[0] wxz, wxr, wxh = wx[:, :H], wx[:, H:2*H], wx[:, 2*H:] # 入力用重み whz, whr, whh = wh[:, :H], wh[:, H:2*H], wh[:, 2*H:] # 前の時刻出力用重み bz, br, bh = b[:H], b[H:2*H], b[2*H:] # バイアス z = sigmoid(np.dot(h_prev, whz) + np.dot(x, wxz) + bz) # updateゲート r = sigmoid(np.dot(h_prev, whr) + np.dot(x, wxr) + br) # resetゲート h_hat = sigmoid(np.dot(r*h_prev, whh) + np.dot(x, wxh) + bh ) h_next = (1-z) * h_prev + z * h_hat return h_next
22.
03 GRU import numpy
as np # 入力を適当に定義 x = np.arange(25).reshape(5,5) h_prev = np.ones((5,10)) # 重みを初期化 wx = np.random.randn(5, 30) wh = np.random.randn(10, 30) b = np.zeros(30) # モデルインスタンス gru = GRU(wx, wh, b) # 順伝播 gru.forward(x, h_prev)
23.
05 seq2seq こちらを参照してコードを実行。確かに最後には8割ほどの正答率となっている。 https://www.pytry3g.com/entry/pytorch-seq2seq#Google- Colaboratory%E3%81%A7%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%A0%E3%82%92%E5%8B%95%E3%8 1%8B%E3%81%99
24.
参考
25.
参考 RNN, LSTM https://sagantaf.hatenablog.com/entry/2019/06/04/225239 https://tips-memo.com/python-lstm https://qiita.com/kazukiii/items/df809d6cd5d7d1f57be3
GRU https://konchangakita.hatenablog.com/entry/2021/01/30/210000 word2vec https://deepage.net/bigdata/machine_learning/2016/09/02/word2vec_power_of_word_ve ctor.html VAE https://zenn.dev/azamshato/articles/47a059783fabd1 Seq2seq、Atention https://tips-memo.com/translation-jayalmmar-attention
Download now